Yenilikler

İnsanlara güvenmeyen insanlar yapay zekaya daha fazla güveniyor

Yakın zamanda yayınlanan bir araştırmaya göre, bir kişinin insanlara duyduğu güvensizlik, yapay zekanın çevrimiçi içeriği denetleme yeteneğine daha fazla güveneceğini tahmin ediyor. Araştırmacılar, bulguların sosyal medyadaki AI araçlarının hem tasarımcıları hem de kullanıcıları için pratik etkileri olduğunu söylüyor.

Penn State’deki James P. Jimirro Medya Etkileri Profesörü S. Shyam Sundar, “Yapay zekanın sınıflandırmasına daha fazla güvendiğini gösteren, diğer insanlara daha az güvenen bireylerin sistematik bir modelini bulduk” dedi. “Analizimize dayanarak, bu, kullanıcıların makinelerin doğru, nesnel ve ideolojik önyargılardan arınmış olduğu fikrine başvurmalarından kaynaklanıyor gibi görünüyor.”

dergisinde yayınlanan araştırma, Yeni Medya ve Toplum ayrıca, bilgi teknolojisinin deneyimli kullanıcıları olan “güçlü kullanıcıların” tam tersi bir eğilime sahip olduğunu buldu. Yapay zeka moderatörlerine daha az güvendiler çünkü makinelerin insan dilinin nüanslarını algılama yeteneğinden yoksun olduğuna inanıyorlardı.

Çalışma, başkalarına güvensizlik ve güç kullanımı gibi bireysel farklılıkların, kullanıcıların içerik denetimi için yapay zeka tabanlı bir sistemle karşılaştıklarında, nihayetinde sisteme olan güvenlerini etkileyecek olan makinelerin olumlu mu yoksa olumsuz özelliklerini mi kullanacağını tahmin ettiğini buldu. Araştırmacılar, bireysel farklılıklara dayalı olarak arayüzlerin kişiselleştirilmesinin kullanıcı deneyimini olumlu yönde değiştirebileceğini öne sürüyorlar. Çalışmadaki içerik denetimi türü, nefret söylemi ve intihar düşüncesi gibi sorunlu içerikler için sosyal medya gönderilerinin izlenmesini içerir.

Yardımcı doçent Maria D. Molina, “Bazılarının içerik denetleme teknolojisine güvenme konusunda tereddüt etmesinin nedenlerinden biri, fikirlerimizi çevrimiçi olarak özgürce ifade etmeye alışmış olmamızdır. İçerik denetlemenin bunu elimizden alabileceğini düşünüyoruz” dedi. Michigan State Üniversitesi’nde iletişim sanatları ve bilimleri bölümünden mezun oldu ve bu makalenin ilk yazarı. “Bu çalışma, içerik denetimi için olumsuz yapay zeka klişelerine sahip insanlar için, bir karar verirken insan katılımını güçlendirmenin önemli olduğunu öne sürerek bu soruna bir çözüm sunabilir. Öte yandan, makineler hakkında olumlu klişelere sahip insanlar için, AI’nın doğruluğu gibi unsurları vurgulayarak makinenin gücünü güçlendirebiliriz.”

Çalışma ayrıca muhafazakar siyasi ideolojiye sahip kullanıcıların AI destekli moderasyona güvenme olasılığının daha yüksek olduğunu buldu. Penn State’in Medya Etkileri Araştırma Laboratuvarı’nı da yöneten Molina ve yardımcı yazar Sundar, bunun ana akım medya ve sosyal medya şirketlerine duyulan güvensizlikten kaynaklanabileceğini söyledi.

Araştırmacılar, Amerika Birleşik Devletleri’nden 676 katılımcıyı işe aldı. Katılımcılara, geliştirilmekte olan bir içerik denetleme sisteminin test edilmesine yardımcı oldukları söylendi. Onlara nefret söylemi ve intihar düşüncesinin tanımları verildi, ardından dört farklı sosyal medya gönderisinden biri takip edildi. Gönderiler, bu tanımlara uyması için işaretlendi veya işaretlenmedi. Katılımcılara ayrıca gönderiyi işaretleme kararının yapay zeka mı, bir insan mı yoksa her ikisinin birleşimi tarafından mı verildiği söylendi.

Gösteriyi, katılımcılara bireysel farklılıklarını soran bir anket izledi. Farklılıklar, başkalarına güvenmeme eğilimlerini, siyasi ideolojiyi, teknolojiyle ilgili deneyimlerini ve yapay zekaya güvenmelerini içeriyordu.

Molina, “Yanlış bilgilendirmeden nefret söylemine kadar çok fazla sorunlu içerik bombardımanına tutulduk” dedi. “Ancak, günün sonunda, bu bireysel farklılıklar tarafından sallanmak yerine, teknolojinin gerçek özellikleri nedeniyle kullanıcıların AI’ya olan güvenlerini kalibre etmelerine nasıl yardımcı olabileceğimizle ilgili.”

Molina ve Sundar, sonuçlarının AI’nın gelecekteki kabulünü şekillendirmeye yardımcı olabileceğini söylüyor. Tasarımcılar, kullanıcıya özel sistemler oluşturarak şüpheciliği ve güvensizliği azaltabilir ve yapay zekaya uygun bir güven inşa edebilirler.

Penn State’in Sosyal Sorumlu Yapay Zeka Merkezi’nin direktörü olan Sundar, “Çalışmanın önemli bir pratik sonucu, kullanıcıların otomatik sistemlere olan güvenlerini kalibre etmelerine yardımcı olacak iletişim ve tasarım stratejilerini bulmaktır” dedi. “AI teknolojisine çok fazla inanma eğiliminde olan bazı insan grupları, sınırlamaları konusunda uyarılmalı ve içeriği denetleme yeteneğine inanmayanlar, sürece insan katılımının kapsamı hakkında tam olarak bilgilendirilmelidir.”

Kaynak ve İleri Okuma: https://www.sciencedaily.com/releases/2022/09/220921210021.htm

İlgili Makaleler

Başa dön tuşu