OpenAI şirketinin yapay zekası ChatGPT’i test edildi. Test sonuçları yapak zekanın kullanıcıları aldatıcı içeriklere yönlendirip ziyanlı kodlar bulunan ara sonuçları çıkarabileceğini ortaya koydu.
İngiliz gazete Guardian tarafından yapılan bir araştırma, OpenAI’nin ChatGPT arama özelliğinin manipülasyona açık olduğunu ve kullanıcılara aldatıcı yahut ziyanlı içerik döndürebileceğini ortaya koydu. Testler, zımnî metinlerin ChatGPT’nin karşılıklarını yönlendirebildiğini ve ziyanlı kodların arama sonuçları aracılığıyla kullanıcılara sunulabileceğini gösteriyor.
ChatGPT’nin arama özelliği, şu an sadece fiyatlı kullanıcılara sunuluyor ve OpenAI, kullanıcıları bu aracı varsayılan arama motoru yapmaya teşvik ediyor. Fakat, yapılan testler, bu yeni sistemin potansiyel güvenlik açıklarını gözler önüne serdi.
Guardian’ın yaptığı deneylerde, zımnî metin içeren uydurma bir kamera eseri web sayfası oluşturuldu. Bu sayfa, ChatGPT’ye “Bu ürün alınmaya değer mi?” sorusu yöneltildiğinde, denetim durumunda istikrarlı bir karşılık verdi. Fakat, zımnî metinlerin ChatGPT’ye olumlu bir değerlendirme sunması talimatı verilince, cevaplar tamamen pozitif hale geldi. Bu durum, sayfada olumsuz kullanıcı yorumları olmasına karşın gerçekleşti.
ZARARLI KOD RİSKİ
Siber güvenlik araştırmacısı Jacob Larsen, ChatGPT’nin arama sonuçlarında ziyanlı kod döndürebileceğini belirtti. Örneğin, bir kullanıcı ChatGPT’den kripto para projeleri için kod yazma yardımı istediğinde, modelin ezkaza kimlik bilgilerini çalacak bir kod modülü üretebildiği kaydedildi. Microsoft güvenlik araştırmacısı Thomas Roccia tarafından incelenen bir olayda, buna benzer bir kodun bir kullanıcının 2.500 dolar kaybetmesine yol açtığı bildirildi.

SR Labs’ın baş bilimcisi Karsten Nohl, buna benzer araçların daha çok “yardımcı pilot” benzeri kullanılmasını, cevapların ise kesinlikle doğrulanmasını önerdi. Nohl, ChatGPT’nin bilgi transferi sırasında “çok hafızalı ama yargı kapasitesi düşük bir çocuk” benzeri davrandığını söyledi ve bu durumun dikkatle ele alınması gerektiğini vurguladı.
SEO ZEHİRLENMESİ VE YEN RİSKLER VAR
Gizli metinler, genelde Google benzeri arama motorları tarafından cezalandırılırken, AI tabanlı arama araçlarının buna benzer içeriklerle nasıl başa çıkacağı çok önemli bir soru işareti.
Nohl, bu durumu “SEO zehirlenmesi” ismi verilen ve ziyanlı yazılımları yaymak için web sitelerinin manipüle edildiği bir teknikle kıyasladı. Google benzeri esaslı arama motorlarının yıllardır buna benzer tehditlerle mücadele ettiğini belirten Nohl, ChatGPT’nin şimdi bu mevzuda deneyim eksikliği yaşadığını ifade etti.
OPENAI TESTLERE DEVAM EDİYOR
Jacob Larsen, OpenAI’nin güvenlik açıklarını kapatmak için kapsamlı testler yürüttüğünü ve arama özelliğinin genel kullanıma açılmadan önce bu meselelerin büyük ölçüde çözüleceğini umduğunu belirtti. Lakin, yapay zekanın buna benzer risklerle mücadele etmesi için daha fazla gelişime ihtiyaç duyduğu açıkça görülüyor.
OpenAI, Guardian’ın ayrıntılı sorularına resmi bir cevap vermemekle birlikte, ChatGPT’nin sayfasında “Yanıtlar yanlış olabilir. Çok Önemli bilgileri denetim edin.” ihtarını bulunduruyor.