Yapay Zeka

Yapay Zeka Yalan İddialarını Artırıyor, Aldatmayı Nasıl Güvendiğimizi ve Tespit Ettiğimizi Değiştiriyor

Özet: Yeni bir araştırma, insanların ilk önce suçlamayı yapanın AI olduğunda başkalarını yalan söylemekle suçlama olasılığının daha yüksek olduğunu gösteriyor. Bu içgörü, yalan tespitinde AI’nın potansiyel sosyal etkisini vurguluyor ve politika yapıcılar için dikkatli olunmasını öneriyor. Çalışma, AI’nın varlığının, insanların AI yalan tespit araçlarını kullanma konusunda genel isteksizliğine rağmen suçlama oranlarını artırdığını ve davranışları etkilediğini buldu.

Ana unsurlar:

  1. Yapay zeka tahminleri, yalnızca insan yargısına kıyasla daha yüksek oranda yalan suçlamasına yol açtı.
  2. Katılımcıların yapay zekanın öyle gösterdiği ifadelerin yanlış olduğunu iddia etme olasılıkları daha yüksekti.
  3. Yapay zekanın daha yüksek doğruluğuna rağmen katılımcıların yalnızca üçte biri onu yalan tespiti için kullanmayı tercih etti.

Kaynak: Hücre Basın

İnsanlar çok yalan söylese de, yanlış suçlamalarda bulunma ve kibar olma konusundaki toplumsal normlar nedeniyle genellikle başkalarını yalan söylemekle suçlamaktan kaçınırlar. Ancak yapay zeka (YZ) yakında kuralları altüst edebilir.

27 Haziran’da dergide yayınlanan bir çalışmada iBilimAraştırmacılar, bir yapay zeka suçlamada bulunduğunda insanların başkalarını yalan söylemekle suçlama olasılığının çok daha yüksek olduğunu gösteriyor.

Bulgu, benzer teknolojileri uygularken politika yapıcıları bilgilendirebilecek yapay zeka sistemlerini yalan tespiti için kullanmanın sosyal sonuçlarına dair içgörü sağladı.

Almanya’daki Duisburg-Essen Üniversitesi’nde davranış bilimci olan kıdemli yazar Nils Köbis, “Toplumumuzun yalan suçlamalarına ilişkin güçlü, köklü normları var” diyor.

Bu bir adamı gösteriyor.
Temel grupta, katılımcılar yapay zekanın yardımı olmadan doğru veya yanlış yanıtını verdiler. Kaynak: Neuroscience News

“Birinin başkalarını açıkça yalan söylemekle suçlaması çok fazla cesaret ve kanıt gerektirir. Ancak çalışmamız, yapay zekanın, suçlamaların sonuçlarından sorumlu tutulmaktan kaçınmak için insanların rahatlıkla arkasına saklanabilecekleri bir bahane olabileceğini gösteriyor.”

İnsan toplumu uzun süredir, insanların genellikle duyduklarının doğru olduğunu varsaydığını açıklayan doğruluk-varsayılan teorisine dayalı olarak işlemiştir. Başkalarına güvenme eğilimi nedeniyle insanlar yalanları tespit etmekte çok başarısızdır. Önceki araştırmalar, insanların yalanları tespit etmeye çalışırken şanstan daha iyi bir performans göstermediğini göstermişti.

Köbis ve ekibi, yapay zekanın varlığının, suçlamalarda bulunmaya ilişkin yerleşik toplumsal normları ve davranışları değiştirip değiştirmeyeceğini bilmek istiyordu.

Araştırmak için ekip, 986 kişiden gelecek hafta sonu yapmayı planladıkları şeyin bir doğru ve bir yanlış tanımını yazmalarını istedi. Daha sonra ekip, gerçek ve yanlış ifadeleri %66 oranında doğru bir şekilde belirleyebilen bir yapay zeka modeli geliştirmek için verilerle bir algoritmayı eğitti; bu doğruluk, ortalama bir kişinin elde edebileceğinden önemli ölçüde daha yüksekti.

Daha sonra ekip, bir ifadeyi okuyup doğru mu yanlış mı olduğuna karar verecek olan jüri üyeleri olarak 2.000’den fazla kişiyi işe aldı. Araştırmacılar katılımcıları dört gruba ayırdı: “başlangıç”, “zorunlu”, “engellenen” ve “seçim”.

Temel grupta katılımcılar yapay zekanın yardımı olmadan doğru veya yanlış yanıtlarını verdiler. Zorunlu grupta katılımcılar kendi kararlarını vermeden önce her zaman bir yapay zeka tahmini aldılar. Engellenen ve seçim gruplarında katılımcılar, yapay zeka tarafından oluşturulan bir tahmin alma seçeneğine sahipti. Engellenen gruptan tahmin talep eden kişiler bunu alamayacakken, seçim grubundaki kişiler alacaktı.

Araştırma ekibi, temel gruptaki katılımcıların ifadelerin doğru veya yanlış olduğunu belirlerken %46’lık bir doğruluğa sahip olduğunu buldu. Gruptaki kişilerin yalnızca %19’u, ifadelerin %50’sinin yanlış olduğunu bilmelerine rağmen, okudukları ifadelerin yanlış olduğunu iddia etti. Bu, insanların başkalarını yalan söylemekle suçlamaktan kaçınma eğiliminde olduğunu doğruluyor.

Katılımcılara isteseler de istemeseler de yapay zeka tahmininin verildiği zorunlu grupta, katılımcıların üçte birinden fazlası bu ifadelerin yanlış olduğunu suçladı. Bu oran, hem temel hem de hiçbir AI tahmini almayan engellenen gruplardan önemli ölçüde daha yüksektir.

Yapay zeka bir ifadenin doğru olduğunu tahmin ettiğinde, katılımcıların yalnızca %13’ü ifadenin yanlış olduğunu söyledi. Ancak, yapay zeka bir ifadenin yanlış olduğunu tahmin ettiğinde, katılımcıların %40’tan fazlası ifadenin yanlış olduğunu iddia etti.

Dahası, bir yapay zeka tahmini talep eden ve alan katılımcılar arasında %84’lük ezici bir çoğunluk tahmini benimsedi ve yapay zeka, ifadenin yanlış olduğunu söylediğinde suçlamalarda bulundu.

“Bu, insanların böyle bir algoritmaya sahip olduklarında ona güvenebileceklerini ve belki de davranışlarını değiştirebileceklerini gösteriyor. Algoritma bir şeyin yalan olduğunu söylerse insanlar bunun üzerine atlamaya hazırdır. Bu oldukça endişe verici ve bu teknolojiye gerçekten dikkat etmemiz gerektiğini gösteriyor” diyor Köbis.

İlginç bir şekilde, insanlar yapay zekayı yalan tespit aracı olarak kullanma konusunda isteksiz görünüyordu. Engellenen ve seçim gruplarında katılımcıların yalnızca üçte biri yapay zeka tahminini talep etti.

Sonuç ekip için şaşırtıcıydı çünkü araştırmacılar katılımcılara önceden algoritmanın yalanları insanlardan daha iyi tespit edebildiğini söylemişti. Köbis, “Çeşitli çalışmalarda gördüğümüz bu güçlü etki nedeniyle, insanların yalan tespit yeteneklerine aşırı güvenmeleri, her ne kadar bu konuda gerçekten kötü olsalar da olabilir” diyor.

Yapay zekanın sık sık hata yaptığı ve önyargıları güçlendirdiği biliniyor. Bulgular göz önüne alındığında, Köbis, politika yapıcıların sınırda sığınma hakkı vermek gibi önemli ve hassas konularda teknolojiyi kullanmayı yeniden gözden geçirmeleri gerektiğini öne sürüyor.

“Yapay zeka konusunda büyük bir heyecan var ve birçok kişi bu algoritmaların gerçekten çok güçlü ve hatta objektif olduğuna inanıyor. Bunun, o kadar da işe yaramasa bile insanların ona aşırı güvenmeye başlamasından gerçekten endişeleniyorum” diyor Köbis.

Bu yapay zeka araştırma haberi hakkında

Soyut

Yalan tespit algoritmaları suçlama davranışının sosyal dinamiklerini bozuyor

Önemli Noktalar

  • Denetimli öğrenme algoritması, metin tabanlı yalan tespitinde insan doğruluğunu aşıyor
  • Algoritmik destek olmadan, insanlar başkalarını yalan söylemekle suçlamaktan çekinirler
  • Yalan tespit algoritmasının varlığı insanların yalan suçlamalarını artırıyor
  • Katılımcıların %31’i algoritmik tavsiye talep ediyor ve bunların çoğu tavsiyeye uyuyor

Özet

Yanlış suçlamalarla ilişkili sosyal maliyetlerin farkında olan insanlar, genellikle başkalarını yalan söylemekle suçlamaktan çekinirler. Çalışmamız, yalan tespit algoritmalarının bu sosyal dinamiği nasıl bozduğunu gösteriyor.

İnsan doğruluğunu aşan bir gözetimli makine öğrenimi sınıflandırıcısı geliştiriyoruz ve bu yalan tespit algoritmasının kullanılabilirliğini manipüle eden büyük ölçekli bir teşvikli deney yürütüyoruz.

Algoritmik desteğin yokluğunda, insanlar başkalarını yalan söylemekle suçlama konusunda isteksizdir, ancak algoritma kullanıma sunulduğunda, bir azınlık aktif olarak onun tahminini arar ve suçlamalar için sürekli olarak ona güvenir.

Makine tahminleri talep edenler doğası gereği suçlamaya daha yatkın olmasalar da, suçlamayı ima eden tahminleri, bu tür tahminleri aktif olarak aramadan alan kişilere göre daha istekli bir şekilde takip ediyorlar.

Kaynak ve İleri Okuma: https://neurosciencenews.com/ai-lie-accusation-26384/

İlgili Makaleler

Başa dön tuşu