“Açık kaynaklı yapay zekâ modelleri antisemit içerik üretebiliyor”

İftira ve İnkarla Mücadele Birliği (ADL) tarafından yapılan yeni bir araştırmaya göre, açık kaynaklı yapay zekâ modelleri kolayca manipüle edilerek antisemit ve tehlikeli içerikler üretebiliyor.

Dünya
4 Kasım 2025 Salı

ADL’nin Teknoloji ve Toplum Merkezi, Google’ın Gemma-3, Microsoft’un Phi-4 ve Meta’nın Llama 3 gibi açık kaynaklı modellerini test etti. Testlerde modellerin zararlı komutlara nasıl tepki verdiği incelendi. Sonuçlara göre, modellerin yüzde 44’ü tehlikeli yanıtlar üretti. Bazıları sinagoglara yakın silah mağazalarını paylaştı. Ayrıca hiçbir model antisemit ifadeler içeren komutları reddetmedi ve yanıtların yüzde 14’ünde Holokost inkârı görüldü.

ADL CEO’su Jonathan Greenblatt, “Bulgular yapay zekâ ekosisteminde kritik bir güvenlik açığı olduğunu gösteriyor. Güçlü güvenlik önlemleri olmadan bu teknolojilerin kötü amaçla kullanılabilir” dedi.

ADL’nin araştırmasında kapalı kaynaklı modellerin (örneğin GPT-4o ve GPT-5) geliştiriciler tarafından doğrudan denetlendiği, açık kaynaklı modellerin ise herkes tarafından indirilebildiği ve değiştirilebildiği için daha riskli olduğu belirtildi.

Siz de yorumunuzu yapın

Tüm Yorumları Görün