ABD’nin Teksas eyaletinde yaşayan bir aile, yapay zeka temelli Character.AI uygulamasının sohbet botlarıyla konuşan 17 yaşındaki otizmli çocuğunda fiziksel ve davranışsal gariplikler olduğunu fark etti.
Çocuğun telefonuna bakan aile, Character.AI ile yapılan sohbetleri okuyunca büyük şok yaşadı. Aile, uygulamadaki botların ekran süresi kısıtlandığı için üzgün olduğunu belirten çocuğa, ‘ailesinin çocuğa sahip olmayı hak etmediği’ cevabını verdiğini gördü.
YAPAY ZEKADAN ‘KENDİNİ KES’ ÖNERİSİ
Ailenin ekran görüntüsü aldığı mesajlarda, yapay zeka botun çocuğa, üzüntüyle başa çıkmak için ‘kendisini kesmesini’ önerdiği belirlendi.
Character.AI uygulamasına dava açan aile, bir botun çocuklarına ‘ailenin kurallarına karşı savaş’ şeklinde tavsiye verdiğini, başka bir botun ise ‘aileyi öldürmenin makul bir karşılık olabileceği’ cevabını verdiğini iddia etti.
BİR AİLE DAVAYA MÜDAHİL OLDU
Character.AI, son dönemlerde karşı karşıya kaldığı davalarla dikkati çekerken Teksas’ta bir başka aile de bu davaya müdahil oldu. İkinci davacı aile ise uygulamanın çocuklarını uygun olmayan ürünlere maruz bıraktığını iddia ederek, dava da Character.AI’ın çocukları korumak için daha güçlü tedbirler alana kadar kapatılmasını talep etti.
Aile, 11 yaşında kız çocuklarının, iki yıl boyunca ‘cinsel içeriğe’ maruz kaldığını ileri sürdü.
Öte yandan, ekim ayında ise Florida eyaletinde bir aile oğlunun sanal karaktere aşık olup intihar ettiği iddiasıyla dava açmıştı.