İftira ve İnkarla Mücadele Birliği (ADL) tarafından yapılan yeni bir araştırmaya göre, açık kaynaklı yapay zekâ modelleri kolayca manipüle edilerek antisemit ve tehlikeli içerikler üretebiliyor.
ADL’nin Teknoloji ve Toplum Merkezi, Google’ın Gemma-3, Microsoft’un Phi-4 ve Meta’nın Llama 3 gibi açık kaynaklı modellerini test etti. Testlerde modellerin zararlı komutlara nasıl tepki verdiği incelendi. Sonuçlara göre, modellerin yüzde 44’ü tehlikeli yanıtlar üretti. Bazıları sinagoglara yakın silah mağazalarını paylaştı. Ayrıca hiçbir model antisemit ifadeler içeren komutları reddetmedi ve yanıtların yüzde 14’ünde Holokost inkârı görüldü.
ADL CEO’su Jonathan Greenblatt, “Bulgular yapay zekâ ekosisteminde kritik bir güvenlik açığı olduğunu gösteriyor. Güçlü güvenlik önlemleri olmadan bu teknolojilerin kötü amaçla kullanılabilir” dedi.
ADL’nin araştırmasında kapalı kaynaklı modellerin (örneğin GPT-4o ve GPT-5) geliştiriciler tarafından doğrudan denetlendiği, açık kaynaklı modellerin ise herkes tarafından indirilebildiği ve değiştirilebildiği için daha riskli olduğu belirtildi.