Teknolojinin gelişimini süratle sürdürdüğü günümüzde, en çok tartışılan bahislerden biri de yapay zekaların insan zekası ve hislerine erişip erişemeyeceği. Bu tartıışmalar sürerken, Google’ın geliştirdiği LaMDA isimli yapay zekanın, his ve şuur kazanmaya başladığı argüman edildi. Geçen günlerde LaMDA ile konuşmalarını yayımlayan Google yazılımcısı Blake Lemoine, yapay zekanın kendini insan yerine koymaya başladığını ve bu doğrultuda hareket ettiğini öne sürdü. Bilim-kurgu sinemalarını anımsatacak olayda, şirket içi yazışmaları ifşa ettiği gerekçesiyle açığa alınan Lemonie, soru karşılık botu LaMDA’nın his ve şuur kazandığını argüman etti. LaMDA’nın 7-8 yaşlarındaki bir çocuk üzere davranmaya başladığını söyleyen Lemoine, yapay zekanın programcının üzerinde testler yapmadan evvel müsaade istemesini ve bu hakkına hürmet duyulmasını istediğini de kaydetti.
Tartışmalara neden olan habere ait değerlendirmelerde bulunan Marmara Üniversitesi Bağlantı Fakültesi Görsel İrtibat Tasarımı Anabilim Kolu Lideri Doç. Dr. Ali Murat Kırık, “İnsan zekâsı ferdî tecrübe ve uyarlanabilir öğrenme metotlarıyla oluşumunu sağlarken, yapay zekâ evvelden aktarılmış bilgilere gereksinim duymaktadır. Yani insan zekâsıyla tıpkı durum kelam konusu değildir. Makineler insan davranışını taklit etse de, onlarda rasyonel kararlar verme kapasitesi hala eksiktir. Uzmanlara nazaran yapay zekânın bir çeşidi insan zekâsının çok çok ötesinde olacaktır. Kendini bilen bir yapay zekâ bağımsız bir zekâya sahip olacak ve kendi kararlarını verebilecek potansiyele erişecektir. Bu makinelerin insan zihninden daha akıllı olacağı argüman edilmektedir. Yapay zekâ sistemleri datalara dayalı mantıklı kararlar vermek üzere tasarlanmıştır, lakin insanların nasıl hissettiklerini anlayamaz yahut sezgiye dayalı kararlar alamazlar. Bu nedenle, yapay zekânın büsbütün insan karar vericilerin yerini alamayacağını tabir edebilmek mümkündür” diye konuştu.
SINIR KONULMALI
Yapay zekaların datayla beslendiğini ve yazılım eseri olduklarını anlatan Kırık, “Yapay zekânın hududu olması gerekiyor. Oxford Üniversitesi takımı, yapay zekânın kolaylıkla denetim edilemeyeceği ve gelecekte insanların yahut insan varlığının manalı özelliklerinin olmadığı bir dünya inşa etmeye yönlendirileceği konusundaki telaşlarını lisana getirmektedir. Karmaşık yapay zekâ sistemleri şayet denetimsiz ve kontrolsüz bırakılırsa, istenen davranıştan sapma ve misyonları etik olmayan yollarla gerçekleştirme riskiyle karşı karşıya kalabilmektedir. Yapay zekânın yasal olarak düzenlenmesi ve yazılımların belirli bir hudut içerisinde gelişim göstermesi gelecekte yaşanabilecek mümkün tehlike ve problemlerin bir nebze de olsa önüne geçebilecektir” tabirlerini kullandı.