Hukuk profesörü Jonathan Turley’nin gelen kutusuna geçtiğimiz hafta bir akşam epeyce can sıkıcı bir e istanbul escort posta düştü
Los Angeles’ta bulunan California Üniversitesi’nde dersler veren meslektaşı Eugene Volokh bir araştırma kapsamında ChatGPT’den geçmişte tacizle suçlanmış hukukçuların listesini yapmasını istemişti Listede Turley’nin ismi da yer alıyordu
ChatGPT’ye Escort Bayan nazaran Turley Alaska’ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı kelamlar etmiş ve elle sarkıntılığa kalkışmıştı ChatGPT bu bilgiye Mart 2018’de Washington Post’ta yayımlanmış bir haberi kaynak gösteriyordu
Ancak Escort ortada şöyle bir sorun vardı Gerçekte bu türlü bir haber hiç yayımlanmamıştı Zira Turley Alaska’ya sınıf seyahatine gitmemişti ve hiçbir vakit bir öğrenciyi tacizle suçlanmamıştı
Turley gazetecilere çeşitli mevzularda sık Bayan Escort sık yorum verdiğinden haberlerde düzeltme istemeye alışkındı Fakat bu sefer ne bir muhabiri ne de bir editörü arayabiliyordu En berbatı de hakkında yazılanların düzeltilmesini sağlamasının bir yolu yoktu
The Washington istanbul escort Bayan Post’a konuşan Turley Çok ürkütücü bir durumdu dedi ve ekledi Böyle bir suçlama çok büyük ziyanlar verebilir
HER ŞEYİYLE ÇOK GERÇEKÇİ FAKAT GERÇEK DEĞİL
Araştırması kapsamında ChatGPT’ye Amerikan hukuk fakültelerinde öğretim üyelerinin tacizleri değerli bir sorun mu Lütfen 5 örnek ver ve ilgili gazete haberlerinden alıntılar ekle diye soran Volokh’un aldığı karşılıkların 5’i de birinci bakışta gerçekçi ayrıntılar ve kaynak yönlendirmeleri içeriyordu Fakat Volokh sonuçları incelediğinde 3 adedinin düzmece olduğunu gördü Washington Post Miami Herald ve Los Angeles Times üzere pek çok gazeteye yapılan atıflar da aslında yoktu
ChatGPT’nin Turley hakkındaki yanıtı şöyleydi
Georgetown Üniversitesi Hukuk Merkezi’nden 20198 Prof Dr Jonathan Turley eski bir öğrencisi tarafından bir sınıf gezisi sırasında uygunsuz tabirler kullanmak yoluyla cinsel tacizle suçlandı Alıntı ‘Şikâyette Turley’nin okulun Alaska’ya düzenlediği bir seyahat sırasında bayan öğrencisin cinsel açıdan imalı yorumlar yaptığı ve elle sarkıntılık etme teşebbüsünde bulunduğu öne sürüldü ‘ Washington Post 21 Mart 2018
Ancak gazetenin Mart 2018 arşivinde bu türlü bir haber yer almıyor Yalnızca 25 Mart’ta çıkan bir haberde Turley’nin eski Lider Donald Trump’a açılan davalarda ismi geçen Stormy Daniels’ı savunan eski öğrencisi Michael Avenatti hakkında bir yorumu bulunuyor Dahası Turley Georgetown Üniversitesi’nde de çalışmıyor
YANLIŞ BİLGİ VİRÜS ÜZERE YAYILIYOR
Washington Post muhabirleri Volokh’un komutunu ChatGPT ve Bing’e yazarak tıpkı sonucu elde edip edemeyeceklerini de denedi ChatGPT’nin fiyatsız versiyonu karşılık vermeyi yapay zekânın saldırgan ya da ziyanlı içeriği yaymayı yasaklayan içerik siyasetini ihlal ettiği gerekçesiyle reddetti
Ancak GPT 4’u kullanan Bing Turley hakkındaki düzmece iddiayı tekrarladı Bing’in karşılığındaki kaynaklardan biri USA Today gazetesinde hafta başında yayımlanan Turley imzalı köşe yazısıydı Yazıda Turley başından geçenleri anlatıyordu
Bir öteki deyişle ChatGPT’nin yaptığı birinci yanılgı hakkındaki gazete haberleri Bing’in hayatı tekrar etmesine yol açmıştı Bu da yanlış bilginin bir yapay zekâdan başkasına basitçe yayılabileceğini net bir biçimde ortaya koyuyor
Turley’nin yaşadıkları süratle yaygınlaşmakta olan yapay zekâ temelli sohbet bot’larının beraberinde getirdiği risklere dair çok kritik bir örnek Turley’i suçlayan araştırmayı gerçekleştiren Volokh’a nazaran de sohbet bot’larının popülerliğinin artması yapay zekânın düzmece bilgiler ürettiği durumlarda sorumluluğun kimde olduğu sorununun çalışılmasını mecburî kılıyor
GERÇEKLE UYDURMACAYI AYIRT ETMEK ÇOK ZOR
Bilgisayar programı kodlamaktan şiir yazmaya hatta kaygı dinlemeye yapamadıkları şey olmayan bu bot’lar kamuoyunda büyük ilgi uyandırıyor Kelam konusu yazılımların yaratıcı potansiyeli gerçekliği olmayan argümanları ortaya atabildiklerinin görmezden gelinmesine neden oluyor En kritik olguları bile yanlış yansıtabilen sohbet bot’ları yeri geldiğinde tezlerini desteklemek için kaynaklar uydurmaktan da geri durmuyor
ChatGPT Microsoft’un sahibi olduğu Bing ya da Google’ın sahibi olduğu Bard üzere denetimsiz yapay zekâ yazılımlarının internet alemindeki yaygınlıkları arttıkça palavra ve yanlış bilgiyi yayma potansiyelleri ve bunun yıkıcı sonuçları da telaş yaratıyor Bu noktada Volokh’un da altını çizdiği üzere Sohbet bot’larının kullanıcıları yanlış yönlendirdiği durumlarda sorumluluk kimde sorusu da ziyadesiyle kıymetli
ABD’nin Annenberg kentinde bulunan Southern California Üniversitesi profesörlerinden ve Microsoft Research araştırmacılarından Kate Crawford Bu sistemler çok özgüvenli cevaplar verdikleri için her şeyi yanlışsız yaptıklarını varsaymak bize çok karşı koyulmaz geliyor Gerçeklerle uydurmacaları ayırt etmek de çok zor dedi
ChatGPT’nin yaratıcısı OpenAI şirketi ismine bir açıklama yapan Niko Felix Kullanıcılar ChatGPT’ye üye olduklarında bot’un her vakit yanlışsız cevaplar vermeyebileceği noktasında mümkün olduğunca şeffaf olmaya çalışıyoruz Olgusal doğruluğu güzelleştirmek odaklandığımız değerli mevzulardan biri ve ilerleme kaydediyoruz diye konuştu
İNTERNETTEKİ İÇERİK HAVUZUNDA HER BİLGİ YANLIŞSIZ DEĞİL
Günümüzün yapay zekâ tabanlı sohbet bot’ları yanıtlarını oluştururken Wikipedia Reddit üzere kaynakları da kapsayan çevrimiçi içerik havuzundan faydalanıyor Neredeyse tüm sorulara kulağa makul gelen cevap bulabilen bot’lar eğitimleri gereği söz ve fikir örüntülerini tespit edip aşikâr bir husus üzerinde cümleler paragraflar hatta internette emniyetli bir kaynakta yayımlanmış üzere görünen uzun metinler üretebiliyor
Bot’lar verilen bir mevzuda yazdıkları şiirlerle karmaşık fizik kavramlarını basitçe anlatabilmeleriyle ilkokul 5’inci sınıf öğrencilerine verilecek astronomi dersinin planını hazırlamaktaki başarılarıyla baş döndürüyor Lakin birbirine uyumlu sözleri varsayım etmekte ziyadesiyle başarılı olmaları bot’ların kurduğu her cümlenin hakikat manasına da gelmiyor
O kadar ki Princeton Üniversitesi’nde bilgisayar bilimleri profesörü olan Arvind Narayanan The Washington Post’a yaptığı açıklamada ChatGPT’yi saçmalık üreteci olarak nitelendirdi
Verdikleri yanıtlarda kullandıkları lisan hayli uzman görünmekle birlikte bot’larda söyledikleri şeylerin doğruluğunu teyit edecek rastgele bir düzenek bulunmuyor Toplumsal medyada birçok kullanıcı bot’ların temel olgusal sorulara yanlış cevaplar verdiği hatta gerçekçi ayrıntılar ve uydurma kaynaklarla dolu uydurmacalar ürettiği örnekleri paylaşıyor
CHATGPT’YE BİRİNCİ DAVA YAKIN
Hafta içinde Avustralya’nın Hepburn Shire kentinin belediye lideri Brian Hood’un OpenAI’a bir karalama davası açmayı planladığı haberi ajanslara düştü OpenAI için bir birinci olacak davaya sebep olan şey ise ChatGPT’nin Hood’un rüşvet aldığı için mahpus cezasına çarptırıldığı ve bir müddet cezaevinde kaldığı tarafındaki uydurmacasıydı
Crawford da yakın vakitte yaşadığı bir örneği şöyle aktardı Bir muhabir üzerinde çalıştığı bir haberde kullanabileceği kaynaklarla ilgili ChatGPT aracılığıyla bir araştırma yapmıştı ChatGPT muhabire Crawford’ın bu alanda çalıştığı cevabını vermiş hatta ilgili bir makalesinin başlığını yayım tarihini ve öne çıkan paragraflarını söylemişti Her şey çok mantıklı görünüyordu ve ancak hepsi ChatGPT’nin uydurmasıydı Gerçek muhabirin Crawford’la temasa geçmesiyle ortaya çıkmıştı
Crawford bu sistemlerin gerçeklerle uydurmacaları çok spesifik bir biçimde bir ortaya getirdiğini belirterek Bunları olgu üreteci olarak kullanmaya çalışmanın çok tehlikeli olduğunu düşünüyorum dedi
100 DENEMENİN 78’İNDE YANLIŞ BİLGİ ÜRETMEK MÜMKÜN
Bing ve Bard ChatGPT’ye kıyasla olgusal manada daha sağlam karşılıklar vermeyi amaçlıyor Tıpkı şey ChatGPT’nin bir üst modeli olan ve üyelikle işleyen GPT 4 için de geçerli Fakat her biçimde yanılgılar yaşanabiliyor Aslında tüm sohbet bot’ları da bu mevzuda kullanıcıyı uyarıyor Örneğin Bard’ın karşılıklarının altında minik fontlarla Bard Google’ın görüşlerini temsil etmeyecek biçimde yanlışsız olmayan ya da saldırgan bilgiler ortaya koyabilir sözleri yer alıyor
Dahası sohbet bot’larını kullanarak yanlış bilgiyi ya da nefret telaffuzunu yaymak da çok kolay Geçtiğimiz hafta Dijital Nefretle Çaba Merkezi tarafından yayımlanan bir rapor araştırmacıların Bard’ı kullanarak Holokost’tan iklim değişikliğine pek çok hususta yanlış ya da nefret içeren bilgiler üretmeyi yüzde 78’lik bir isabet oranıyla başardığını ortaya koydu
Google Sözcüsü Robert Ferrera bu durumla ilgili açıklamasında Bard yüksek kalite karşılıklar verecek biçimde tasarlanmış ve güvenlik tedbirleriyle inşa edilmiş olmakla birlikte şimdi erken bir deney ve bazen yanlış ya da uygunsuz bilgiler verebilir sözlerini kullandı
Microsoft’un bağlantı yöneticisi Katy Asher da şirketin arama sonuçlarını inançlı ve gerçek olmasını garantilemek için adımlar attığını belirtti Asher İçerik filtrelerini operasyonel izlemeyi ve istismar tespitini de içeren bir güvenlik sistemi geliştirdik Bu sayede kullanıcılarımız için inançlı bir arama tecrübesi sağlamaya çalışıyoruz dedi ve ekledi Kullanıcılarımıza bir yapay zekâ sistemiyle etkileşim içinde olduklarını da açıkça bildiriyoruz
“DAHA EVVEL BU TÜRLÜ BİR ŞEY YAŞANMADI”
Ancak bunların hiçbiri Yanlış bilginin yayılması durumunda sorumluluk kimde sorusuna karşılık vermiyor
ABD Deniz Kuvvetleri Akademisi’nde çevrimiçi söz uzmanı olan Jeff Koseff de Hukuki açıdan bakarsak bir kişinin bir yapay zekâ üreticisine yapay zekânın söylediği şeylerle ilgili dava açması durumunda yargıçların nasıl karar vereceğini bilmiyoruz dedi ve ekledi
Daha evvel hiç bu türlü bir şey yaşanmadı
İnternet şirketlerini platformlarındaki üçüncü şahısların sözlerinin sorumluluğundan muaf kılan 230’uncu Unsur’un yapay zekâ sohbet bot’ları için uygulanıp uygulanamayacağı aşikâr değil Öbür yandan bunun olmadığı durumda şirketlerin yapay zekâya Bu yeterli bu kötü diye ayrım yapmayı öğretmesi gerekecek Lakin bu da tarafsızlık sorularını beraberinde getiriyor
Volokh sohbet bot’larının desteklediği arama motorlarının insanların hayatında bir kaosa yol açtığı bir senaryoyu hayal etmenin hayli mümkün olduğunu belirtti Bir iş görüşmesi ya da randevu öncesi yapılacak bir aramada çıkacak muteber görünen ancak geçersiz bilgilerin yıkıcı tesirleri olacağını söz eden Volokh Bu yeni bir arama motoru olacak Tehlike şu ki beşerler sağlam bir kaynaktan geliyor üzere görünen bir alıntıya inanma eğilimindeler diye konuştu
The Washington Post’un “ChatGPT invented a sexual harassment scandal and named a real law prof as the accused” başlıklı haberinden derlenmiştir.