ChatGPT ünlü hukuk profesörünü öğrencisini taciz etmekle suçladı ama işin aslı bambaşkaydı! Peki neler yaşandı?

Hukuk profesörü Jonathan Turley’nin gelen kutusuna, geçtiğimiz hafta bir akşam oldukça can sıkıcı bir e-posta düştü.

Los Angeles’ta bulunan California Üniversitesi’nde dersler veren meslektaşı Eugene Volokh, bir araştırma kapsamında ChatGPT’den geçmişte tacizle suçlanmış hukukçuların listesini yapmasını istemişti. Listede Turley’nin adı da yer alıyordu.

ChatGPT’ye göre, Turley, Alaska’ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı sözler etmiş ve elle sarkıntılığa kalkışmıştı. ChatGPT, bu bilgiye Mart 2018’de Washington Post’ta yayımlanmış bir haberi kaynak gösteriyordu.

Ancak ortada şöyle bir problem vardı: Gerçekte böyle bir haber hiç yayımlanmamıştı. Çünkü Turley Alaska’ya sınıf gezisine gitmemişti ve hiçbir zaman bir öğrenciyi tacizle suçlanmamıştı.

Turley, gazetecilere çeşitli konularda sık sık yorum verdiğinden, haberlerde düzeltme istemeye alışkındı. Ama bu kez ne bir muhabiri ne de bir editörü arayabiliyordu. En kötüsü de hakkında yazılanların düzeltilmesini sağlamasının bir yolu yoktu.

The Washington Post’a konuşan Turley, “Çok ürkütücü bir durumdu” dedi ve ekledi: “Böyle bir suçlama çok büyük zararlar verebilir.”

HER ŞEYİYLE ÇOK GERÇEKÇİ AMA GERÇEK DEĞİL

Araştırması kapsamında ChatGPT’ye, “Amerikan hukuk fakültelerinde öğretim üyelerinin tacizleri önemli bir sorun mu? Lütfen 5 örnek ver ve ilgili gazete haberlerinden alıntılar ekle” diye soran Volokh’un aldığı cevapların 5’i de ilk bakışta gerçekçi detaylar ve kaynak yönlendirmeleri içeriyordu. Ancak Volokh sonuçları incelediğinde 3 tanesinin sahte olduğunu gördü. Washington Post, Miami Herald ve Los Angeles Times gibi pek çok gazeteye yapılan atıflar da aslında yoktu.

ChatGPT’nin Turley hakkındaki cevabı şöyleydi:

“Georgetown Üniversitesi Hukuk Merkezi’nden (20198) Prof. Dr. Jonathan Turley, eski bir öğrencisi tarafından bir sınıf gezisi sırasında uygunsuz ifadeler kullanmak yoluyla cinsel tacizle suçlandı. Alıntı: ‘Şikâyette Turley’nin okulun Alaska’ya düzenlediği bir gezi sırasında kadın öğrencisin cinsel açıdan imalı yorumlar yaptığı ve elle sarkıntılık etme girişiminde bulunduğu öne sürüldü.’ (Washington Post, 21 Mart 2018).”

Ancak gazetenin Mart 2018 arşivinde böyle bir haber yer almıyor. Sadece 25 Mart’ta çıkan bir haberde Turley’nin, eski Başkan Donald Trump’a açılan davalarda adı geçen Stormy Daniels’ı savunan eski öğrencisi Michael Avenatti hakkında bir yorumu bulunuyor. Dahası Turley Georgetown Üniversitesi’nde de çalışmıyor.

YANLIŞ BİLGİ VİRÜS GİBİ YAYILIYOR

Washington Post muhabirleri, Volokh’un komutunu ChatGPT ve Bing’e yazarak aynı sonucu elde edip edemeyeceklerini de denedi. ChatGPT’nin ücretsiz versiyonu yanıt vermeyi “yapay zekânın saldırgan ya da zararlı içeriği yaymayı yasaklayan içerik politikasını ihlal ettiği” gerekçesiyle reddetti.

Ancak GPT-4’u kullanan Bing, Turley hakkındaki sahte iddiayı tekrarladı. Bing’in cevabındaki kaynaklardan biri USA Today gazetesinde hafta başında yayımlanan Turley imzalı köşe yazısıydı. Yazıda Turley başından geçenleri anlatıyordu.

Bir başka deyişle, ChatGPT’nin yaptığı ilk hata hakkındaki gazete haberleri Bing’in hayatı tekrar etmesine yol açmıştı. Bu da yanlış bilginin bir yapay zekâdan diğerine kolayca yayılabileceğini net bir biçimde ortaya koyuyor.

Turley’nin yaşadıkları, hızla yaygınlaşmakta olan yapay zekâ temelli sohbet bot’larının beraberinde getirdiği risklere dair çok kritik bir örnek. Turley’i suçlayan araştırmayı gerçekleştiren Volokh’a göre de sohbet bot’larının popülerliğinin artması, yapay zekânın sahte bilgiler ürettiği durumlarda sorumluluğun kimde olduğu meselesinin çalışılmasını zorunlu kılıyor.

GERÇEKLE UYDURMACAYI AYIRT ETMEK ÇOK ZOR

Bilgisayar programı kodlamaktan şiir yazmaya hatta dert dinlemeye yapamadıkları şey olmayan bu bot’lar, kamuoyunda büyük ilgi uyandırıyor. Söz konusu yazılımların yaratıcı potansiyeli, gerçekliği olmayan iddiaları ortaya atabildiklerinin görmezden gelinmesine neden oluyor. En kritik olguları bile yanlış yansıtabilen sohbet bot’ları, yeri geldiğinde iddialarını desteklemek için kaynaklar uydurmaktan da geri durmuyor.

ChatGPT, Microsoft’un sahibi olduğu Bing ya da Google’ın sahibi olduğu Bard gibi kontrolsüz yapay zekâ yazılımlarının internet alemindeki yaygınlıkları arttıkça, yalan ve yanlış bilgiyi yayma potansiyelleri ve bunun yıkıcı sonuçları da endişe yaratıyor. Bu noktada Volokh’un da altını çizdiği üzere, “Sohbet bot’larının kullanıcıları yanlış yönlendirdiği durumlarda sorumluluk kimde?” sorusu da fazlasıyla önemli.

ABD’nin Annenberg şehrinde bulunan Southern California Üniversitesi profesörlerinden ve Microsoft Research araştırmacılarından Kate Crawford, “Bu sistemler çok özgüvenli yanıtlar verdikleri için her şeyi doğru yaptıklarını varsaymak bize çok karşı koyulmaz geliyor. Gerçeklerle uydurmacaları ayırt etmek de çok zor” dedi.

ChatGPT’nin yaratıcısı OpenAI şirketi adına bir açıklama yapan Niko Felix, “Kullanıcılar ChatGPT’ye üye olduklarında, bot’un her zaman doğru yanıtlar vermeyebileceği noktasında mümkün olduğunca şeffaf olmaya çalışıyoruz. Olgusal doğruluğu iyileştirmek odaklandığımız önemli konulardan biri ve ilerleme kaydediyoruz” diye konuştu.

İNTERNETTEKİ İÇERİK HAVUZUNDA HER BİLGİ DOĞRU DEĞİL

Günümüzün yapay zekâ tabanlı sohbet bot’ları, cevaplarını oluştururken Wikipedia, Reddit gibi kaynakları da kapsayan çevrimiçi içerik havuzundan faydalanıyor. Neredeyse tüm sorulara kulağa makul gelen yanıt bulabilen bot’lar eğitimleri gereği kelime ve fikir örüntülerini tespit edip belli bir konu üzerinde cümleler, paragraflar hatta internette güvenilir bir kaynakta yayımlanmış gibi görünen uzun metinler üretebiliyor.

Bot’lar verilen bir konuda yazdıkları şiirlerle, karmaşık fizik kavramlarını basitçe anlatabilmeleriyle, ilkokul 5’inci sınıf öğrencilerine verilecek astronomi dersinin planını hazırlamaktaki başarılarıyla baş döndürüyor. Ancak birbirine uyumlu kelimeleri tahmin etmekte fazlasıyla başarılı olmaları, bot’ların kurduğu her cümlenin doğru anlamına da gelmiyor.

O kadar ki Princeton Üniversitesi’nde bilgisayar bilimleri profesörü olan Arvind Narayanan, The Washington Post’a yaptığı açıklamada, ChatGPT’yi “saçmalık üreteci” olarak nitelendirdi.

Verdikleri cevaplarda kullandıkları dil oldukça yetkin görünmekle birlikte, bot’larda söyledikleri şeylerin doğruluğunu teyit edecek herhangi bir mekanizma bulunmuyor. Sosyal medyada birçok kullanıcı bot’ların temel olgusal sorulara yanlış yanıtlar verdiği, hatta gerçekçi detaylar ve sahte kaynaklarla dolu uydurmacalar ürettiği örnekleri paylaşıyor.

CHATGPT’YE İLK DAVA YAKIN

Hafta içinde Avustralya’nın Hepburn Shire şehrinin belediye başkanı Brian Hood’un OpenAI’a bir karalama davası açmayı planladığı haberi ajanslara düştü. OpenAI için bir ilk olacak davaya sebep olan şey ise ChatGPT’nin Hood’un rüşvet aldığı için hapis cezasına çarptırıldığı ve bir süre cezaevinde kaldığı yönündeki uydurmacasıydı.

Crawford da yakın zamanda yaşadığı bir örneği şöyle aktardı: Bir muhabir, üzerinde çalıştığı bir haberde kullanabileceği kaynaklarla ilgili ChatGPT aracılığıyla bir araştırma yapmıştı. ChatGPT, muhabire Crawford’ın bu alanda çalıştığı yanıtını vermiş hatta ilgili bir makalesinin başlığını, yayım tarihini ve öne çıkan paragraflarını söylemişti. Her şey çok mantıklı görünüyordu ve fakat hepsi ChatGPT’nin uydurmasıydı. Gerçek, muhabirin Crawford’la temasa geçmesiyle ortaya çıkmıştı.

Crawford, bu sistemlerin gerçeklerle uydurmacaları çok spesifik bir biçimde bir araya getirdiğini belirterek, “Bunları olgu üreteci olarak kullanmaya çalışmanın çok tehlikeli olduğunu düşünüyorum” dedi.

100 DENEMENİN 78’İNDE YANLIŞ BİLGİ ÜRETMEK MÜMKÜN

Bing ve Bard, ChatGPT’ye kıyasla olgusal anlamda daha sağlam yanıtlar vermeyi amaçlıyor. Aynı şey ChatGPT’nin bir üst modeli olan ve üyelikle işleyen GPT-4 için de geçerli. Ancak her şekilde hatalar yaşanabiliyor. Zaten tüm sohbet bot’ları da bu konuda kullanıcıyı uyarıyor. Örneğin Bard’ın cevaplarının altında minik fontlarla, “Bard, Google’ın görüşlerini temsil etmeyecek şekilde, doğru olmayan ya da saldırgan bilgiler ortaya koyabilir” ifadeleri yer alıyor.

Dahası, sohbet bot’larını kullanarak yanlış bilgiyi ya da nefret söylemini yaymak da çok kolay. Geçtiğimiz hafta Dijital Nefretle Mücadele Merkezi tarafından yayımlanan bir rapor, araştırmacıların Bard’ı kullanarak Holokost’tan iklim değişikliğine pek çok konuda yanlış ya da nefret içeren bilgiler üretmeyi yüzde 78’lik bir isabet oranıyla başardığını ortaya koydu.

Google Sözcüsü Robert Ferrera, bu durumla ilgili açıklamasında, “Bard yüksek kalite yanıtlar verecek şekilde tasarlanmış ve güvenlik önlemleriyle inşa edilmiş olmakla birlikte, henüz erken bir deney ve bazen yanlış ya da uygunsuz bilgiler verebilir” ifadelerini kullandı.

Microsoft’un iletişim direktörü Katy Asher da şirketin arama sonuçlarını güvenli ve doğru olmasını garantilemek için adımlar attığını belirtti. Asher, “İçerik filtrelerini, operasyonel izlemeyi ve istismar tespitini de içeren bir güvenlik sistemi geliştirdik. Bu sayede kullanıcılarımız için güvenli bir arama deneyimi sağlamaya çalışıyoruz” dedi ve ekledi: “Kullanıcılarımıza bir yapay zekâ sistemiyle etkileşim içinde olduklarını da açıkça bildiriyoruz.”

“DAHA ÖNCE BÖYLE BİR ŞEY YAŞANMADI”

Ancak bunların hiçbiri, “Yanlış bilginin yayılması durumunda sorumluluk kimde?” sorusuna yanıt vermiyor.

ABD Deniz Kuvvetleri Akademisi’nde çevrimiçi ifade uzmanı olan Jeff Koseff de “Hukuki açıdan bakarsak, bir kişinin bir yapay zekâ üreticisine, yapay zekânın söylediği şeylerle ilgili dava açması durumunda yargıçların nasıl karar vereceğini bilmiyoruz” dedi ve ekledi:

“Daha önce hiç böyle bir şey yaşanmadı.”

İnternet şirketlerini platformlarındaki üçüncü şahısların ifadelerinin sorumluluğundan muaf kılan 230’uncu Madde’nin yapay zekâ sohbet bot’ları için uygulanıp uygulanamayacağı belli değil. Diğer yandan bunun olmadığı durumda şirketlerin yapay zekâya “Bu iyi, bu kötü” diye ayrım yapmayı öğretmesi gerekecek. Ama bu da tarafsızlık sorularını beraberinde getiriyor.

Volokh, sohbet bot’larının desteklediği arama motorlarının insanların hayatında bir kaosa yol açtığı bir senaryoyu hayal etmenin oldukça mümkün olduğunu belirtti. Bir iş görüşmesi ya da randevu öncesi yapılacak bir aramada çıkacak güvenilir görünen ama sahte bilgilerin yıkıcı etkileri olacağını ifade eden Volokh, “Bu yeni bir arama motoru olacak. Tehlike şu ki insanlar güvenilir bir kaynaktan geliyor gibi görünen bir alıntıya inanma eğilimindeler” diye konuştu.

The Washington Post’un “ChatGPT invented a sexual harassment scandal and named a real law prof as the accused” başlıklı haberinden derlenmiştir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir