featured

Amazon Alexa hiçbir gerçekliği olmayan haberler yayıyor!

Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Sesli asistan konusunda dünyada büyük bir akım başlatan ve sektörün en çok kullanılan asistanlarından biri olan Alexa, aldığı yapay zeka güncellemeleri sonrasında çok daha akıllı bir kimliğe bürünmüştü. Ancak Alexa, son dönemde yaydığı aslı astarı olmayan haberlerle gündeme gelmiş durumda.

Alexa, birçok farklı alanda haberler uyduruyor!

Amazon’un popüler sesli asistanı Alexa’nın kullanıcılara yanlış bilgiler ve aslında hiç olmayan haberler verdiği ortaya çıktı. İngiltere’nin önde gelen doğrulama kuruluşu Full Fact’in yaptığı araştırma, durumun sanılandan çok daha ciddi olduğunu gösteriyor.

Alexa Yapay Zeka

Full Fact’in CEO’su Chris Morris’in açıklamalarına göre, Alexa sadece yanlış bilgiler vermekle kalmıyor, bu bilgileri Full Fact kaynaklıymış gibi göstererek kurumun güvenilirliğini de zedeliyor.

Morris, “İnsanların mutfaklarında ve oturma odalarında bulunan güvenilir cihazlar üzerinden yanlış bilgiler yayılıyor. Daha da kötüsü, tam da düzeltmeye çalıştığımız yanlış bilgileri yaymak için kurumumuzun isminin kullanılması” şeklinde konuştu.

Tüm bu süreç, Kuzey Işıkları hakkında bilgi almak isteyen bir kullanıcının Full Fact’e başvurmasıyla ortaya çıktı. Alexa, doğal bir olay olan Kuzey Işıkları’nın Alaska’daki HAARP tesisi tarafından yapay olarak üretildiğini iddia etti. Bu yanıtın ardından yapılan incelemede, Alexa’nın başka konularda da yanıltıcı bilgiler verdiği tespit edildi.

ChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürpriziChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürprizi

ChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürprizi

OpenAI, ChatGPT Gelişmiş Ses için tüm kullanıcılara sürpriz yaptı. Geliştiriciler ise ChatGPT sesli asistan oluşturma özelliğine sahip oldu.

Örneğin, milletvekillerinin kahvaltı için 50 sterlin harcama yapabilecekleri, Başbakan Keir Starmer’ın İsrail ile diplomatik ilişkileri kesmeyi planladığı gibi asılsız iddialar da Alexa tarafından dile getirildi. Hatta Mike Tyson’ın CNBC’de İsrail’i boykot çağrısı yaptığı gibi tamamen uydurma bir haber bile asistanın repertuarında yer aldı.

Full Fact yetkilileri, Alexa’nın web sayfalarından bilgi toplama şeklindeki algoritmasının nasıl bu kadar yanıltıcı sonuçlar verdiğini anlayamadıklarını söyledi. Kurum, Google Asistan’ın da benzer hatalar yaptığını, ancak Apple’ın Siri’sinin daha tutarlı yanıtlar verdiğini tespit etti.

Siz bu konuda ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşmayı ihmal etmeyin.

0
alk_
Alkış
0
be_enmedim
Beğenmedim
0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
komik
Komik
Amazon Alexa hiçbir gerçekliği olmayan haberler yayıyor!

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir