Dolar 35,3732
Euro 36,4912
Altın 2.990,55
BİST 10.075,17
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 15°C
Çok Bulutlu
İstanbul
15°C
Çok Bulutlu
Sal 16°C
Çar 16°C
Per 15°C
Cum 14°C

Yapay Zeka’nın Adaletsiz Kararları: İnsanların Kötü Davranışlarına Karşı İlgisizliğe Yol Açabilir!

Yapay Zeka’nın Adaletsiz Kararları: İnsanların Kötü Davranışlarına Karşı İlgisizliğe Yol Açabilir!
REKLAM ALANI
23 Aralık 2024 18:18 | Son Güncellenme: 31 Aralık 2024 14:58
22

Yapay zeka (YZ), günlük hayatımızı etkileyen önemli kararlar alır. Bu kararlar, firmalar ve kurumlar tarafından verimlilik adına uygulanır. Kimin üniversiteye gireceğini, kimin iş bulacağını, kimin tıbbi tedavi göreceğini ve kimin devlet yardımına hak kazanacağını belirlemeye yardımcı olabilirler.

Yapay zeka bu rolleri üstlendikçe, haksız kararlar alma riski artıyor – veya etkilenen kişiler tarafından algılanmaları. Örneğin, üniversiteye kabul veya işe alımlarda , bu otomatik kararlar istemeden belirli insan gruplarını veya belirli geçmişlere sahip kişileri kayırabilirken, eşit derecede nitelikli ancak yeterince temsil edilmeyen başvuru sahipleri göz ardı edilebilir.

ARA REKLAM ALANI

Veya hükümetler tarafından sosyal yardım sistemlerinde kullanıldığında , yapay zeka kaynakları toplumsal eşitsizliği daha da kötüleştirecek şekilde dağıtabilir ve bazı insanların hak ettiklerinden daha azına sahip olmalarına ve haksız muamele gördükleri hissine kapılmalarına neden olabilir.

Uluslararası bir araştırmacı ekibiyle birlikte, adaletsiz kaynak dağıtımının (ister yapay zeka ister insan tarafından yönetilsin) insanların adaletsizliğe karşı harekete geçme isteğini nasıl etkilediğini inceledik. Sonuçlar Cognition dergisinde yayınlandı .

Yapay zeka günlük hayata daha fazla yerleştikçe, hükümetler vatandaşları önyargılı veya şeffaf olmayan yapay zeka sistemlerinden korumak için devreye giriyor. Bu çabaların örnekleri arasında Beyaz Saray’ın Yapay Zeka Hakları Bildirgesi ve Avrupa Parlamentosu’nun Yapay Zeka Yasası yer alıyor . Bunlar ortak bir endişeyi yansıtıyor: İnsanlar yapay zekanın kararları yüzünden haksızlığa uğramış hissedebilir.

Peki bir yapay zeka sisteminden kaynaklanan adaletsizliğe maruz kalmak, insanların sonrasında birbirlerine olan davranışlarını nasıl etkiliyor?

Yapay zeka kaynaklı ilgisizlik

Cognition’daki makalemiz, bir yapay zeka tarafından haksız muameleye maruz kaldıktan sonra insanların haksızlığa karşı harekete geçme isteğini inceledi. İncelediğimiz davranış, bu bireylerin daha sonraki, ilgisiz etkileşimlerine uygulandı. Genellikle “toplum yararına ceza” olarak adlandırılan bu tür durumlarda harekete geçme isteği, toplumsal normları korumak için çok önemli görülüyor.

Örneğin, ihbarcılar risklere rağmen etik olmayan uygulamaları bildirebilir veya tüketiciler zararlı şekillerde hareket ettiğine inandıkları şirketleri boykot edebilir. Bu tür toplum yanlısı cezalandırma eylemlerinde bulunan kişiler bunu genellikle başkalarını etkileyen adaletsizlikleri gidermek için yaparlar ve bu da toplum standartlarını güçlendirmeye yardımcı olur.

Yapay Zeka Temsili
Anggalih Prasetya / Shutterstock

Şu soruyu sorduk: Bir insan yerine AI’dan adaletsizlik yaşamak, insanların daha sonra insan suçlulara karşı dik durma isteğini etkileyebilir mi? Örneğin, bir AI adaletsiz bir şekilde bir vardiya atarsa ​​veya bir faydayı reddederse, insanların daha sonra bir iş arkadaşının etik olmayan davranışlarını bildirme olasılığını azaltır mı?

Bir dizi deneyde, bir AI tarafından haksız yere muamele gören kişilerin, bir insan tarafından haksız yere muamele gören katılımcılardan sonra insan suçluları cezalandırma olasılıklarının daha düşük olduğunu bulduk. Başkalarının kötü davranışlarına karşı bir tür duyarsızlaşma gösterdiler. Bu etkiye AI kaynaklı kayıtsızlık adını verdik, AI tarafından yapılan haksız muamelenin insanların başkalarına karşı hesap verebilirlik duygusunu zayıflatabileceği fikrini yakalamak için. Bu, onların toplumlarındaki adaletsizlikleri ele alma olasılıklarını azaltır.

Eylemsizliğin nedenleri

Bunun nedeni, insanların haksız muamele için AI’yı daha az suçlaması ve bu nedenle adaletsizliğe karşı harekete geçme konusunda daha az istekli hissetmeleri olabilir. Bu etki, katılımcılar yalnızca başkaları tarafından yapılan haksız davranışlarla veya hem adil hem de haksız davranışlarla karşılaştığında bile tutarlıdır. Ortaya çıkardığımız ilişkinin AI ile aşinalıktan etkilenip etkilenmediğine bakmak için, 2022’de ChatGPT’nin piyasaya sürülmesinden sonra aynı deneyleri tekrar gerçekleştirdik . Daha sonraki test serilerinde, önceki testlerde elde ettiğimiz sonuçların aynısını elde ettik.

Bu sonuçlar, insanların adaletsizliğe karşı tepkilerinin yalnızca adil davranılıp davranılmadığına değil, aynı zamanda kendilerine kimin adaletsiz davrandığına (yapay zeka mı yoksa insan mı) da bağlı olduğunu gösteriyor.

Kısacası, bir AI sistemi tarafından yapılan haksız muamele, insanların birbirlerine nasıl tepki vereceğini etkileyebilir ve birbirlerinin haksız eylemlerine karşı daha az dikkatli olmalarına neden olabilir. Bu, AI’nın insan toplumundaki potansiyel dalga etkilerini vurgular ve bir bireyin tek bir haksız karar deneyiminin ötesine uzanır.

Yapay zeka sistemleri haksız davrandığında, sonuçlar gelecekteki etkileşimlere kadar uzanır ve insanların birbirlerine nasıl davrandıklarını, yapay zekayla ilgisi olmayan durumlarda bile etkiler. Yapay zeka sistemleri geliştiricilerinin , bu önemli taşma etkilerini önlemek için yapay zeka eğitim verilerindeki önyargıları en aza indirmeye odaklanmaları gerektiğini öne süreriz .

Politika yapıcılar ayrıca şirketlerin AI’nın nerede haksız kararlar alabileceğini açıklamasını gerektiren şeffaflık standartları da belirlemelidir. Bu, kullanıcıların AI sistemlerinin sınırlamalarını ve haksız sonuçlara nasıl itiraz edeceklerini anlamalarına yardımcı olacaktır. Bu etkilere ilişkin farkındalığın artması, özellikle AI ile etkileşime girdikten sonra insanların haksızlığa karşı uyanık olmasını da teşvik edebilir.

Haksız muameleye karşı öfke ve suçlama duyguları, adaletsizliği tespit etmek ve suçluları sorumlu tutmak için olmazsa olmazdır. AI’nın beklenmeyen sosyal etkilerini ele alarak, liderler AI’nın adalet üzerine kurulu bir toplum için gereken etik ve sosyal standartları baltalamak yerine desteklemesini sağlayabilir.Konuşma

Konuşma

Chiara Longoni , Doçent, Pazarlama ve Sosyal Bilimler, Bocconi Üniversitesi ; Ellie Kyung , Doçent, Pazarlama Bölümü, Babson Koleji ve Luca Cian , Killgallon Ohio Sanat İşletme Yönetimi Profesörü, Darden İşletme Okulu, Virginia Üniversitesi

Bu makale The Conversation’dan Creative Commons lisansı altında yeniden yayınlanmıştır . Orijinal makaleyi okuyun .


EN SON TV sitesinden daha fazla şey keşfedin

Subscribe to get the latest posts sent to your email.

REKLAM ALANI
ETİKETLER: ,
YORUMLAR

Lütfen görüşlerinizi bize yazın

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.

EN SON TV sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin