ChatBot'lar Arama Motorlarının Yerini Alamaz (mı?)

Emily M. Bender & Chirag Shah, insan gibi konuşan bir makineye güvenme içgüdüsüne karşı savaşmamız gerektiğini savunuyor.

"Her şeyin cevabını bilen bir yapay zeka fikri bilim kurgudan gelir ve orada kalmalıdır. ChatGPT ve diğer dil modellerinin baştan çıkarıcı akıcılığına rağmen, bilgi kaynağı olarak kullanılmaya uygun değiller."

Emily M. Bender | Washington Üniversitesi'nde Dilbilim Bölümü Profesörü ve Hesaplamalı Dilbilim Profesyonel Yüksek Lisans Programı Fakülte Direktörü

Chirag Shah | Washington Üniversitesi Paul G. Allen Bilgisayar Bilimi ve Mühendisliği Okulu'nda Yardımcı Profesör.

Onlarca yıllık bilim kurgu külliyatı bize, yüksek teknolojili bir geleceğin temel özelliklerinden birinin, dostça (ya da bazen son derece mesafeli) bir sesli arayüz aracılığıyla, görünüşte sınırsız bilgi setlerine anında erişmemizi sağlayan bilgisayar sistemleri olduğunu öğretti. İnternet'in ilk vaadi, bu bilgi koleksiyonunun başlangıç noktası olmaktı. Meta'nın Galactica'sı, OpenAI'nin ChatGPT'si ve bu yılın başlarında Google'ın LaMDA'sı ile gördük ki, "dostça" yaklaşımlı dil arayüzü şimdiden hayatımıza girdi.

Bununla birlikte, karakterlerin her zaman yazarın ihtiyaç duyduğu bilgilere sahip olmasını sağlayan kullanışlı bir olay örgüsü kurma aygıtını, "teknolojinin gerçek dünyada nasıl yaratılabileceği ve yaratılması gerektiğine dair bir yol haritası" ile karıştırmamalıyız. Aslında, Galactica, ChatGPT ve LaMDA gibi büyük dil modelleri, iki temel ve bağımsız yönden ele alındığında, "arama motoru gibi" bilgi erişim sistemleri olarak kullanılma amacına uygun değil.

İlk olarak, bu botların asıl amacı, tutarlı görünen metinler oluşturmaktır. Bunu, çok büyük miktarlarda eğitim verisini analiz edip, kelimelerin birlikte ortaya çıkma yollarını modelleyerek yaparlar; ve insanlara ilgi çekici gelen metinler üretebilen sistemlerdir. Ancak bu sistemler, ne ürettiklerine dair herhangi bir anlayışa, herhangi bir iletişimsel niyete, herhangi bir dünya görüşüne veya söylediklerinin doğruluğundan sorumlu olma bilincine sahip değildir. Bu nedenle onlara "stokastik papağanlar" olarak adını vermiştik.

İkinci olarak, her şeyi bilen bir yapay zeka fantezisi, bilginin ve bilgi ediniminin nasıl işlediğine dair temelde kusurlu bir kavrama dayanmaktadır. Bilmemiz gereken her şeyi temsil eden, her şeyi kapsayan, tamamen doğru bir bilgi kümesi asla olmayacaktır. Ve bunun gerçekleşebileceğini umut etseniz bile, günümüz bilgi ağında, böyle bir şey olmadığı açık ve net ortadadır. Temelde, bilgiye ulaşmaya çalışırken sadece bir sorumuz olduğunu ve cevabını aradığımızı düşünebiliriz. Ancak çoğu zaman, anlamlandırma sürecine dahil olmaktan daha fazla fayda sağlarız: Sorumuzu rafine etmek, olası cevaplara bakmak, bu cevapların geldiği kaynakları ve hangi perspektifleri temsil ettiklerini anlamak gibi.

Şu sorgular arasındaki farkı düşünün:

"Celcius cinsinden 70 derece Fahrenheit kaçtır?"

"Mevcut COVID koşulları ve kendi risk faktörlerim göz önüne alındığında, ne gibi önlemler almalıyım?"

Bilgi arama, mümkün olan en kısa sürede yanıt almaktan daha fazlasıdır.

Elbette, sorularımızın çoğu basit, gerçeklere dayalı yanıtlar gerektiriyor, ancak bir çoğu da biraz araştırma gerektiriyor. Bu gibi durumlarda, ilgili kaynakları taramak ve bilginin kaynağını görüp değerlendirmek önemlidir. Bu, kullanıcı tarafında daha fazla çaba gerektirse de bu süreç sırasında gerçekleşen ve kendi ihtiyaçlarımızı ve bağlamı daha iyi anlamamızı, aranan ve elde edilen bilgilerin daha iyi değerlendirilmesini sağlayan önemli bilişsel ve duygusal süreçler vardır. Bu konuyu daha detaylı ele aldığımız Situating Search makalemize bir göz atabilirsiniz.

ChatGPT ve kişinin sorularına doğrudan yanıt veren diğer diyalog sistemlerinin bu konuda iki temel sorunu var. Birincisi, bu sistemler yanıtları doğrudan üretiyor ve kullanıcılara yanıtları arayabilecekleri kaynakları gösterme adımını atlıyor. İkincisi, bu sistemler, normalde yalnızca diğer insanlarla deneyimlediğimiz bir şey olan konuşma dilinde yanıtlar veriyor: Hem evrimsel zaman hem de her bireyin yaşadığı hayat deneyimi boyunca, doğal dilde iletişim, her zaman diğer insanlarla yaşanmıştır. Bu nedenle sentetik bir dil çıktısıyla karşılaştığımızda, bir insana duyduğumuz güvenin benzerini duymamak çok zordur. Bu güveni kötüye kullanmamak için, bu sistemlerin çok dikkatli ve etik bir şekilde tasarlanması gerektiğini savunuyoruz.

Görünürdeki akıcılığın, görünüşün aksine, doğruluk, bilgi değeri veya güvenilirliği beraberinde getirmediğini kabul etmemiz aciliyet arz ediyor.

ChatGPT'nin piyasaya sürülmesinden bu yana, insanların bunu kullanarak neler yapabildiklerine dair, binlerce rapor gördük ve bu teknolojinin halka sunumu konusunda gerçekten çok endişeliyiz. Sohbet amaçlı olmayan arama motorlarında bile, sonuçlara aşırı güven duymanın yaygın bir sorun olduğunu biliyoruz: Arama sistemi, bir şeyi listenin en üstüne yerleştirirse, bunun iyi, doğru veya temsili bir sonuç olduğuna inanma eğilimindeyiz ve eğer bir şey bulamazsa, bunun var olmadığına inanmak cazip geliyor. Ancak, Safiya Noble'ın Algorithms of Oppression kitabında bizi uyardığı gibi, bu platformlar ne dünyanın ne de insanların dünya hakkında nasıl konuştuğunun tarafsız yansımaları değil. Daha ziyade çeşitli kurumsal çıkarlar tarafından şekillendiriliyorlar. Toplumlar olarak bilgi erişim sistemlerinin işleyişini kavramsallaştırmayı öğrenmemiz gerekiyor. Görünürdeki akıcılığın, görünüşün aksine, doğruluk, bilgi değeri veya güvenilirliği beraberinde getirmediğini kabul etmemiz aciliyet arz ediyor.

Emily M. Bender
Chirag Shah
13 Aralık 2022
Kaynak