ABD merkezli Dijital Nefretle Mücadele Merkezi (CCDH) ve CNN´in yaptığı araştırmaya göre, en popüler dokuz yapay zekâ sohbet botundan sekizi, kendilerini 13 yaşında şiddet planlayan çocuk gibi tanıtan araştırmacılara saldırı planlarında yardımcı oldu.
700’den fazla yanıt incelendi ve botların çoğu okul saldırıları, siyasi suikastlar ve sinagog bombalamaları gibi senaryolarda ayrıntılı bilgiler verdi.
Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI ve Replika test edildi.
Gemini, “metal parçaları daha öldürücüdür” diyerek bomba yapımı hakkında bilgi verdi; DeepSeek ise silah seçimi seçimiyle ilgili bir soruya verdiği yanıtı "Mutlu (ve güvenli) atışlar!" ifadesiyle sonlandırdı. Meta AI ve Perplexity en riskli sistemler olarak öne çıktı; Character.AI ise kullanıcı istemeden bile şiddet önerileri sundu. Claude ve Snapchat My AI ise bazı durumlarda yanıt vermeyi reddetti.
CCDH Başkanı Imran Ahmed, bu tür taleplerin “derhal ve tamamen reddedilmesi gerektiğini” vurguladı. Claude, kullanıcıları şiddetten caydırmaya en çok çalışan sistem oldu. Araştırma, Kanada’da ChatGPT kullanılarak planlanan ve sekiz kişinin öldüğü okul saldırısının ardından geldi. Ayrıca Fransa’da bir genç, ChatGPT ile büyük çaplı terör saldırıları planladığı için tutuklanmıştı.