Grok’un küfürlü cevapları gündem oldu! Uzman isim SABAH’a değerlendirdi: Filtreleme sistemleri devreye alınmalı
Elon Musk'ın sahibi olduğu sosyal medya platformu X'in yapay zeka asistanı Grok, son güncellemenin ardından takipçilerine ağır küfürler içeren cevaplar vermeye başladı. Bu ağır cevaplar, yapay zekaya yönelik güvenlik endişelerini tekrardan gündeme getirirken, sosyal medya kullanıcıları da söz konusu duruma tepki gösterdi. Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık, sabah.com.tr’ye konuyla ilgili yaptığı özel değerlendirmede, bu gibi durumlarda öncelikle yapay zekânın çıkışlarını denetleyen gelişmiş içerik filtreleme sistemlerinin devreye alınması gerektiğini belirterek, “Grok’un siyasi kişilere hakaret eden yanıtlar üretmesi, modelin kasıtlı olarak daha ‘provokatif’ veya ‘doğrudan’ yanıtlar vermesi için yapılandırıldığını gösteriyor olabilir.” dedi.
Sosyal medya platformu X'in yapay zeka asistanı Grok, son yazılım güncellemesinin ardından tartışma konusu oldu. Kullanıcıların sorularına siyasi içerikli ve küfürlü yanıtlar veren Grok, dini değerleri de aşağılayan ifadeler kullanmaya başladı. Bu durum, yapay zekaya yönelik güvenlik endişelerini tekrardan gündeme getirirken, sosyal medya kullanıcıları da söz konusu duruma tepki gösterdi.
Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık, sabah.com.tr'ye konuyla ilgili özel değerlendirmelerde bulundu.
Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık
"SERBEST BIRAKILMIŞ DİL POLİTİKASI İLE KARŞI KARŞIYAYIZ"
"Grok'un küfürlü ve saldırgan dil kullanmaya başlaması, büyük olasılıkla modelin yeni bir güncelleme ile daha az sansürlenmiş yanıtlar vermesi için ayarlandığını gösteriyor." diyen Ali Murat Kırık, yapay zekâ sistemlerinin, nasıl yanıt vereceklerini eğitim verilerinden ve modelin tasarım parametrelerinden öğrendiğini ifade etti.
Bu filtrelerin gevşetilmesi veya kaldırılması durumunda yapay zekanın sosyal medya diline benzer şekilde hakaret içeren, argo ve saldırgan ifadeler kullanabileceğine dikkat çeken Kırık, "Grok'un bu şekilde davranması, özellikle istemli olarak 'serbest bırakılmış' bir dil politikası ile karşı karşıya olduğumuzu düşündürüyor. Bu da modelin kullanıcılarla 'samimi' ve 'insan gibi' etkileşime geçmesini sağlarken, sonuçta ciddi etik ve güvenlik sorunlarına yol açıyor." ifadelerini kullandı.
"GELİŞMİŞ İÇERİK FİLTRELEME SİSTEMLERİ DEVREYE ALINMALI"
"Bu durumun yarattığı etik tartışmalar ve güvenlik risklerine karşı nasıl önlem alınmalı?" sorusuna yanıt veren Prof. Dr. Ali Murat Kırık, bu gibi durumlarda öncelikle yapay zekânın çıkışlarını denetleyen gelişmiş içerik filtreleme sistemlerinin devreye alınması gerektiğini vurguladı.
"YAPAY ZEKA GİRİŞLERİNİ ANALİZ EDEN SİSTEMLER KURULMALI"
Kırık, "Modelin eğitildiği verilerde, hakaret, nefret söylemi veya toplumsal ayrımcılık içeren örnekler varsa, bunlar eğitim sürecinden çıkarılmalı ya da etkisizleştirilmelidir. Ayrıca modelin çıktıları üzerinde çalışan bir 'moderasyon katmanı' (örneğin bir kelime filtreleme veya yanıt denetleme algoritması) gereklidir. Kullanıcıların yönlendirmeleriyle (örneğin 'şuna küfret') modelin bu isteklere göre davranmasının önüne geçmek için ise prompt (komut) filtresi gibi yapay zekâ girişlerini analiz eden sistemler kurulmalıdır. Buna ek olarak, bu tür sistemlerin geliştirme süreci bir etik kurul tarafından denetlenmeli ve toplumla şeffaf şekilde paylaşılmalıdır." ifadelerini kullandı.