Yapay zeka sohbet botları (Chatbot), teknoloji standartlarına nazaran nispeten eskidir. Fakat işin içine yapay zekayı tam manasıyla sokan OpenAI’nin ChatGPT’si, Microsoft’un Bing’i ve Google’ın Bard’ı liderliğindeki en yeni eserler, her vakit olumlu nedenlerle olmasa da daha evvelki örneklere nazaran çok daha yetenekli olduklarını kanıtlıyor.
Yapay zeka gelişimindeki son atılımlar, şimdiden yanlış bilgilendirme, dezenformasyon, intihal ve makine tarafından üretilen berbat gayeli yazılımlar hakkında tasalar yarattı. Üretken yapay zekanın ortalama bir internet kullanıcısının mahremiyeti için nasıl sıkıntılar oluşturabileceği sorunun karşılığı ise, uzmanlara nazaran, büyük ölçüde bu botların nasıl eğitildiği ve onlarla ne kadar etkileşim kurmayı planladığımızla ilgili.
Yapay zeka sohbet botları ve Common Crawl
Yapay zeka sohbet botları, insan gibisi etkileşimleri taklit etmek için, değerli bir kısmı Common Crawl üzere depolardan türetilen büyük ölçüde bilgi üzerinde eğitilir. Common Crawl, açık web’i gezerek yıllar boyunca petabaytlarca data topladı. Stanford’un bilgisayar bilimi kısmında doktora öğrencisi ve Microsoft Research’te eski yapay zeka asistanı olan Megha Srivastava, “Bu modeller, internetteki halka açık dataların büyük data kümeleri üzerinde eğitim veriyor” diyor. Srivastava’nın söylediğine nazaran ChatGPT ve Bard, Common Crawl’ın bilgilerinin “filtrelenmiş” bir kısmını kullansalar da, modelin devasa boyutu “birinin dataları büsbütün inceleyip sterilize etmesini” imkansız kılıyor.
Ortalama bir kullanıcı için erişimi sıkıntı olan ve internetin uzak köşelerinde bulunan dikkatsizce oluşturulmuş yahut düşük güvenliğe sahip dataların bir eğitim setine fark edilmeden yerleştirilmiş olması ve sohbet robotu tarafından gelecekte tekrar edilmesi mümkün. Ve bir botun birinin gerçek bağlantı bilgilerini vermesi, hiçbir halde olmayacak bir şey değil. Bloomberg köşe muharriri Dave Lee, Twitter’da birisi ChatGPT’den şifreli iletileşme platformu Signal’de sohbet etmesini istediğinde, gerçek telefon numarasını tam olarak verdiğini bildirdi. Bu tıp bir etkileşim muhtemelen uç bir durum olsa da, bu öğrenme modellerinin erişebildiği bilgilerin dikkate paha olduğunu vurguluyor.
Ayrıca bu chatbot’lar, sizin onlara sunduğunuz dataları de öğrenme sürecine dahil edebiliyor. Yani siz bir bilgiyi onunla paylaştığınızda, o bu dataları diğer birinin karşısına çıkartabiliyor. Aynı Samsung çalışanlarının başına geldiği üzere…
SANS Enstitüsü güvenlik tertibinden David Hoelzer, Engadget’e “OpenAI’nin sıhhat dataları üzere muhakkak bilgileri toplamak ve modellerini eğitmek için bireylere atfetmek istemesi pek mümkün değil” dedi ve ekledi: “Ama kazara orada olabilir mi? Katiyetle…”
Kısacası yapay zeka sohbet botları hakkımızdaki açık bilgileri toplayabildiği üzere, onlarla paylaştığımız şeyleri de kendi eğitimleri için kullanabiliyor. Bu da, bu botları kullanan rastgele birinin, bize ilişkin bilgilere tesadüf yapıtı ya da şuurlu olarak ulaşma ihtimali olduğunu gösteriyor.
Open AI, ChatGPT’ede bilgi kapalılığını korumak için hangi tedbirleri aldığını yahut eğitim setlerine yerleşmiş olabilecek şahsî olarak tanımlanabilir bilgileri nasıl ele aldığını açıklamamış olsa da, ChatGPT’nin kendisi “kullanıcıların kapalılığını ve ferdî bilgilerini koruyan etik ve yasal standartları takip edecek formda programlandığını” ve “(kendisine) sağlanmadığı sürece ferdî bilgilere erişimi olmadığını” söylüyor.
Google, ferdî olarak tanımlanabilir bilgilerin sohbetler sırasında paylaşılmasını önlemek için Bard’da emsal “korkuluklar” bulunduğunu söylüyor. Bard’ın özel bir kapalılık siyaseti bulunmuyor ve bunun yerine öteki Google eserleri tarafından paylaşılan kapsamlı kapalılık dokümanını kullanıyor.