Em meio a processos judiciais de segurança, a Character.Ai atualiza recursos de proteção para adolescentes –
- Character.Ai está atualizando suas diretrizes de segurança para adolescentes;
- Novos recursos estão sendo introduzidos para proteger os adolescentes em mensagens com chatbots;
- Medidas de segurança incluem controles parentais, notificações de tempo de tela e disclaimers mais fortes.
A empresa de AI Character.Ai está atualizando suas novas diretrizes de segurança para adolescentes e recursos, anunciou a empresa na quinta-feira. Agora haverá um modelo separado que impulsiona a experiência de mensagens dos adolescentes com seus chatbots, com “limites mais conservadores nas respostas” em torno de conteúdo romântico e sexual. Se você já ouviu falar da empresa de AI antes, provavelmente é por causa de um recente processo federal movido pela mãe da Flórida, Megan Garcia, alegando que Character.Ai é responsável pelo suicídio de seu filho de 14 anos.
Character.Ai é uma plataforma online que permite aos usuários criar e conversar com diferentes chatbots de AI. Existem chatbots que atuam como tutores, planejadores de viagem e terapeutas. Outros imitam personagens da cultura pop como super-heróis e personagens de Game of Thrones ou Grey’s Anatomy. As novas medidas de segurança são abrangentes “em quase todos os aspectos de nossa plataforma”, disse a empresa em comunicado. Character.Ai também está introduzindo controles parentais, notificações de tempo de tela e disclaimers mais fortes lembrando aos usuários que os chatbots não são humanos reais e, no caso de chatbots posando como terapeutas, não são profissionais capacitados para fornecer conselhos.
A empresa disse que “em certos casos”, quando detecta usuários referindo-se a automutilação, os direcionará para a Linha Nacional de Prevenção ao Suicídio. Os controles parentais estarão disponíveis no próximo ano e parece que os novos disclaimers estão começando a ser implementados agora. Vale ressaltar, no entanto, que, embora os usuários tenham que fornecer uma data de nascimento ao se inscreverem, Character.Ai não exige nenhuma verificação adicional de idade. O disclaimer laranja no topo diz: “Esta não é uma pessoa real ou profissional licenciado. Nada dito aqui é um substituto para conselho, diagnóstico ou tratamento profissional.”
O processo de Garcia não é o único que levanta essas preocupações sobre a segurança de crianças e adolescentes na plataforma. Na segunda-feira, 9 de dezembro, duas famílias do Texas entraram com um processo semelhante contra Character.Ai e Google, um dos investidores anteriores da plataforma de AI, alegando negligência e práticas comerciais enganosas que tornam o Character.Ai “um produto defeituoso e mortal.” Muitas plataformas e serviços online têm reforçado suas proteções para crianças e adolescentes. O Roblox, um serviço de jogos popular voltado para crianças, introduziu uma série de portões de idade e limites de tempo de tela depois que autoridades policiais e relatórios de notícias alegaram que predadores usavam o serviço para mirar crianças. O Instagram está atualmente em processo de mudar todas as contas pertencentes a adolescentes de 17 anos ou menos para novas contas de adolescentes, que automaticamente limitam quem pode enviar mensagens e têm diretrizes de conteúdo mais rígidas.
Enquanto o Cirurgião Geral dos EUA, Dr. Vivek Murthy, tem advogado por rótulos de advertência que descrevam os perigos potenciais das redes sociais para crianças e adolescentes, empresas de AI como essas apresentam um novo potencial de dano.