AI’nın etiği: Big Tech’e inancımızı koymalı mıyız?

Geçen yıl Eylül ayında, Google’ın bulut birimi, bir finans firmasının kime borç vereceğine karar vermesine yardımcı olmak için yapay zekayı kullanmayı düşündü.

< /div>

Haftalarca süren şirket içi tartışmalardan sonra müşterinin fikrini geri çevirdi ve yapay zeka teknolojisi ırk ve cinsiyet gibi önyargıları sürdürebileceği için projenin etik açıdan fazla riskli olduğunu düşündü.

Geçen yılın başından beri, Google ayrıca, kültürel duyarsızlıktan korkarak duyguları analiz eden yeni yapay zeka özelliklerini engellerken, Microsoft sesleri taklit eden yazılımları kısıtladı ve IBM, gelişmiş bir yüz tanıma sistemi için bir müşteri talebini reddetti.

div>

Üç ABD teknoloji devinin yapay zeka etik şefleriyle yapılan görüşmelere göre, tüm bu teknolojiler yönetici panelleri veya diğer liderler tarafından engellendi.

< div>

Büyük teknoloji firmaları Google, Facebook ve Microsoft, AB lobi faaliyetlerine en fazla harcama yapanlar, araştırma bulguları

Reuters f için bildirdi İlk kez vetoları ve onlara yol açan müzakereler, kârlı yapay zeka sistemleri arayışını daha fazla sosyal sorumluluk düşüncesiyle dengelemek için endüstri çapında yeni doğmakta olan bir çabayı yansıtıyor.

“Fırsatlar ve zararlar var ve bizim Görev, fırsatları en üst düzeye çıkarmak ve zararları en aza indirmek,” diyor Google Cloud’da Sorumlu Yapay Zeka genel müdürü olarak iki etik komitesinde yer alan Tracy Pizzo Frey.

Yapay Zekayı Düzenleme h2>

Şirketin baş sorumlu AI yetkilisi Natasha Crampton, örneğin Microsoft’un, bozuk kişilerin konuşmasını geri yüklemek için ses taklit teknolojisini kullanmanın yararını, siyasi derin sahtekarlıkları etkinleştirmek gibi risklere karşı dengelemesi gerektiğini söyledi.

< div>

Hak aktivistleri, toplum için potansiyel olarak geniş sonuçları olan kararların yalnızca içeride alınmaması gerektiğini söylüyor.

Sorumlu davranmanın finansal çıkarlarına da uygun olduğunu söylediler.

Yine de, herhangi bir kuralın yeniliklere ve yarattığı yeni ikilemlere ayak uyduracak kadar esnek olması konusunda istekliler.

div>

IBM, Reuters’e verdiği demeçte, gelecekteki karmaşık hususlar arasında AI Etik Kurulu’nun ortaya çıkan bir sınırın nasıl denetleneceğini tartışmaya başladığını söyledi: implantlar ve giyilebilir cihazlar. bilgisayarları beyinlere bağlayın.

Bu tür nöroteknolojiler, engelli kişilerin hareketi kontrol etmesine yardımcı olabilir, ancak IBM’in Gizlilik Baş Sorumlusu Christina Montgomery, bilgisayar korsanlarının düşünceleri manipüle etme olasılığı gibi endişeleri artırabileceğini söyledi.

Noel Celis/AFPMicrosoft, geçen yılın başından beri sesleri taklit eden yazılımları kısıtladı.Noel Celis/AFP

Etik kurulları

Teknoloji şirketleri, sadece beş daha önce birkaç etik önlemle sohbet robotları ve fotoğraf etiketleme gibi AI hizmetlerini piyasaya sürüyorlardı ve sonraki güncellemelerle yanlış kullanım veya önyargılı sonuçlarla mücadele ediyorlardı.

Ancak AI başarısızlıklarına ilişkin siyasi ve kamusal inceleme arttıkça, Microsoft 2017’de 2018’de Google ve IBM, yeni hizmetleri baştan gözden geçirmek için etik komiteler kurdu.

Google, geçen Eylül ayında bir finansal hizmetler şirketinin yapay zekanın insanların kredi itibarını daha iyi değerlendirebileceğini düşündüğünde, borç verme ikilemiyle karşı karşıya kaldığını söyledi. diğer yöntemler.

Proje, aşağıdaki konularda yardımcı olan AI araçları geliştirme konusundaki uzmanlığına sahip Google Cloud için çok uygun görünüyordu. anormal işlemlerin tespiti gibi alanlar Deutsche Bank, HSBC ve BNY Mellon gibi müşterileri cezbetmiştir.

Teknoloji firmalarının kasıtlı olarak dışarıda kaldığını göreceğiniz kadar hassas alanlar olabilir. yolun açık kurallarıdır.

Bill Foster
ABD Kongre Üyesi

Google’ın birimi, yapay zeka tabanlı kredi puanlamasının yılda milyarlarca dolar değerinde bir pazar haline gelebileceğini tahmin ediyordu ve bir dayanak istiyordu.

Ancak, yaklaşık 20 yönetici, sosyal bilimciden oluşan etik komitesi Pizzo Frey, potansiyel anlaşmaları gözden geçiren mühendislerin Ekim ayındaki bir toplantıda oybirliğiyle projeye karşı oy kullandığını söyledi.

Komite, yapay zeka sisteminin geçmiş verilerden ve kalıplardan ders alması gerektiği sonucuna vardı ve bu nedenle ayrımcı uygulamaları tekrarlama riskiyle karşı karşıya kaldı. dünyanın dört bir yanından farklı ırktan insanlara ve diğer marjinal gruplara karşı.

Google Haritalar’ın kalabalıklaşma tahminleri, taşıtlar COVID-19’dan kaçınmaya çalıştıkça daha fazla şehre yayılıyor Maaş kesintisi yapar mıydınız uzaktan çalışmak? Google çalışanları için bu yeni normal olabilir

Ayrıca, şirket içinde “Limonaid” olarak bilinen komite, tüm finansal hizmet anlaşmalarını atlamak için bir politika yürürlüğe koydu. bu tür endişeler çözülene kadar kredi itibarı ile ilgili.

Google ayrıca Iced olarak bilinen ikinci Bulut etik komitesini de söyledi. Tea, bu yıl 2015’te yayınlanan ve insanların fotoğraflarını dört ifadeyle kategorize eden bir hizmeti incelemeye aldı: sevinç, üzüntü, öfke ve şaşkınlık.

Bu hareket, Google’ın şirket çapındaki etik panelinin geçen yıl aldığı bir kararın ardından geldi. , Advanced Technology Review Council (ATRC), duygu okuma ile ilgili yeni hizmetleri engelliyor.

ATRC – bir düzineden fazla üst düzey yönetici ve mühendis – yüzdeki ipuçları farklı şekilde ilişkilendirildiği için duyguları çıkarmanın duyarsız olabileceğini belirledi. Google’ın Sorumlu İnovasyon ekibinin kurucusu ve lideri Jen Gennai, diğer nedenlerin yanı sıra kültürler arası duygularla ilgili olduğunu söyledi.

R sesler ve yüzler üretmek

Bu arada Microsoft, birinin sesini kısa bir örnekten yeniden üretebilecek bir yazılım geliştirdi, ancak şirketin Hassas Kullanımlar paneli daha sonra iki yıldan fazla bir süre kullanım ve Kıdemli Yapay Zeka görevlisi Crampton, Reuters’e danışılan şirket Başkanı Brad Smith’e verdiği demeçte.

İnsan hakları, veri bilimi ve mühendislik gibi alanlarda uzman olan panelin, sonunda Özel Sinirsel Ses’in tam olarak kullanılması için yeşil ışık yaktığını söyledi. bu yıl şubat ayında yayınlandı.