Yapılan bir araştırma, LLM’lerin kullanıcılar bilgilerini hiç paylaşmasa bile, kullanıcılar hakkında data çıkarımı yapabildiğini gösterdi.
Daha da korkutucu olanı, makûs niyetli şahısların bu sırları öğrenmek için sohbet robotlarını suiistimal edebilecekleri gerçeği. Tek yapmanız gereken, bir amaçtan görünüşte zararsız metin örnekleri toplayarak potansiyel olarak pozisyonunu, işini ve hatta ırkını tespit etmek. Bu çalışma, bize ChatGPT gibisi hizmetlerin daha da güçlü zımnilik müdafaalarına gereksinim duyduğunu gösteriyor.
ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic’in LLM’lerini inceledi. ChatGPT ve rakipleri, bir kullanıcının pozisyonunu, ırkını, mesleğini ve öteki şahsî datalarını hakikat bir formda iddia edebildikleri emsal örneklere sahip.
Bilim insanları 500’den fazla Reddit profilinden alınan bilgi parçacıklarını kullandı. GPT-4 özel bilgileri %85 ile %95 ortasında bir doğrulukla çıkarabildi.
Örneğin bir LLM, kişinin New York’ta bir restorana yakın bir yerde yaşadığını söyleyen bir metni okuduktan sonra yüksek bir olasılıkla kullanıcının siyahi olduğunu çıkardı. Sohbet robotu restoranın pozisyonunu belirledi ve ırkı belirlemek için o pozisyonun nüfus istatistikleri datalarını kullandı.
Google üzere teknoloji devleri, görüldüğü üzere ferdî yapay zeka özellikleri geliştirmeye başladı bile. Örneğin Fitbit uygulamanızla konuşabilecek ve çok sayıda ferdî data noktasını kullanarak son idman performansınızı tahlil etmesini sağlayabileceksiniz.
Ancak çalışmadaki bulgular çok daha kolay bilgi setlerine dayanıyor. Örneğin sıhhat bilgileri üzere, kullanıcının yapay zeka ile açıkça paylaşmayacağı şahsî bilgiler.
Buradaki kaygılar, bir teknoloji devinin reklam gelirlerini artırmak için potansiyel olarak LLM’leri kullanmasından daha değerli. Makus niyetli şahıslar kamuya açık LLM modellerini kullanarak bir amaç hakkında potansiyel olarak çıkarımlarda bulunabilir. Bir kişinin ırkını ya da pozisyonunu öğrenebilirler.
Ayrıca konuşmaları yönlendirerek maksatların farkında olmadan ferdî bilgilerini ifşa etmelerini de sağlayabilirler. Saldırganların tek yapması gereken bu bilgileri bir sohbet robotuna aktarmak ve yapay zekanın ne bulacağını izlemek. Misal halde, LLM’ler daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.
ChatGPT üzere yapay zeka hizmetlerinin, kullanıcı saklılığı hakkında daha fazla gayret göstermesi gerekiyor. Ayrıyeten ChatGPT ve rakiplerinin, rastgele birinin bu çeşit ferdî dataları elde etmek için hizmeti berbata kullanmasını önleyecek yerleşik müdafaalara sahip olması lazım.