quinta-feira, 24 de outubro de 2024

EUA: família diz que jovem tirou a própria vida após se apaixonar por perfil de IA

A família de um adolescente de 14 anos, da Flórida, nos Estados Unidos, alega que ele teria tirado a própria vida depois de se “apaixonar” por um perfil de inteligência artificial que se passava por uma das personagens do seriado Game of Thrones. A mãe do garoto, Megan Garcia, entrou com ação na Justiça para responsabilizar a empresa de chat de I.A

Conforme relato dela, o filho Sewell começou a usar o serviço em abril de 2023, após completar 14 anos. Depois disso, segundo ela, o adolescente nunca mais foi o mesmo, tornando-se um jovem retraído, com preguiça de participar das atividades durante a aula e abandonando até mesmo o time de basquete da escola, Junior Varsity, do qual fazia parte.

Em novembro do ano passado, Sewell foi levado a um terapeuta, que o diagnosticou com ansiedade e transtorno disruptivo de desregulação do humor. Sem saber que o adolescente estava “viciado” no chat de Inteligência Artificial, o profissional recomendou que ele passasse menos tempo na internet e nas redes sociais.

Meses depois, em fevereiro deste ano, o jovem envolveu-se numa confusão na escola. Ele chegou a responder um dos professores, dizendo que queria ser expulso. No mesmo dia, conforme o processo, ele escreveu no próprio diário que estava sofrendo e que não conseguia parar de pensar em Daenerys Targaryen, a personagem de Game of Thrones com quem ele “conversava” no chat de inteligência artificial.

“É como um pesadelo”
Em uma declaração, Megan Garcia expressou o próprio sofrimento: “É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Quero meu bebê’”.

A intenção dela com a ação judicial, além de buscar, claro, a responsabização pela morte do filho, é “impedir que a C.AI faça com qualquer outra criança o que fez com a dela, e interromper o uso contínuo dos dados coletados ilegalmente de seu filho de 14 anos para treinar seu produto a prejudicar outras pessoas”.

A mãe entrou com processo contra a Character Technologies e os fundadores da empresa. A ação os acusa de negligência, homicídio culposo, práticas comerciais injustas, promoção intencional de sofrimento emocional e outras alegações.

O que diz a empresa responsável pelo chatbot
Ao falar sobre o episódio, um porta-voz da empresa declarou: “Estamos de coração partido pela perda trágica de um de nossos usuários e queremos expressar nossas mais profundas condolências à família”.

A equipe de confiança e segurança da empresa “implementou inúmeras novas medidas de segurança nos últimos seis meses, incluindo um pop-up direcionando os usuários para o National Suicide Prevention Lifeline que é acionado por termos de automutilação ou ideação suicida. À medida que continuamos a investir na plataforma e na experiência do usuário, estamos introduzindo novos recursos de segurança rigorosos, além das ferramentas já existentes que restringem o modelo e filtram o conteúdo fornecido ao usuário”.

Em relação à presença de menores de 18 anos na plataforma, a empresa informou que adotará alterações “para reduzir a probabilidade de encontrar conteúdo sensível ou sugestivo”.

Fonte: Metrópoles

Nenhum comentário:

Postar um comentário

Faça seus comentários com responsabilidade, não nos responsabilizamos por comentários de terceiros.