Este grande erro mostra por que você não pode confiar no ChatGPT para perguntas sobre segurança residencial –

  • AI pode economizar tempo e acertar as coisas
  • Não confie em AI para conselhos de segurança
  • ChatGPT pode fornecer informações incorretas sobre segurança em casa

Longe de se preocupar com a IA na segurança domiciliar, sou um grande fã de como ela está nos salvando tempo e acertando as coisas, especialmente com o reconhecimento de objetos. Mas isso não significa que você deve recorrer ao ChatGPT e começar a fazer perguntas sobre tecnologia doméstica, privacidade ou o quão seguro é um dispositivo. A IA é excelente se você quiser que um dos agentes do Google lhe diga quando um pacote foi entregue ou recolhido ou o Vizinho Confiável da ADT desbloqueie sua porta da frente para um membro reconhecido da família. Mas realmente não deveria pedir conselhos sobre segurança, especialmente em seu estado atual. Existem boas razões para isso: Mesmo os melhores LLMs (grandes modelos de linguagem) ainda alucinam informações dos padrões que coletaram. Isso é um problema particular no mundo da casa inteligente, onde especificações técnicas, modelos, compatibilidade, vulnerabilidades e atualizações mudam com tanta frequência. É fácil para o ChatGPT ficar confuso sobre o que está certo, atual ou até mesmo real – e essas são questões-chave ao tomar decisões sobre a segurança doméstica. Vamos dar uma olhada em alguns dos maiores erros para que você entenda o que quero dizer.

A ala de combustíveis alternativos da BP está expandindo sua presença de carregamento de veículos elétricos nos EUA com a compra do hardware de carregamento rápido DC da Tesla. Perguntar a um chatbot sobre tecnologia de segurança específica é sempre um negócio arriscado, e nada ilustra tão bem isso quanto essa popular história do Reddit sobre um chatbot que disse ao usuário que um Tesla poderia acessar seus “sistemas de segurança doméstica”. Isso não é verdade – provavelmente é uma alucinação baseada no próprio serviço HomeLink da Tesla, que permite abrir portas de garagem compatíveis. Serviços como o Google Gemini também sofrem de alucinações que tornam os detalhes difíceis de confiar. Embora a IA possa escrever desde ensaios até e-mails de phishing (não faça isso), ela ainda erra informações, o que pode levar a preocupações de privacidade infundadas. Curiosamente, quando perguntei ao ChatGPT a que os Teslas poderiam se conectar e monitorar, ele não cometeu o mesmo erro, mas pulou recursos como HomeLink, então você ainda não está obtendo o quadro completo. E isso é apenas o começo. A IA conversacional não fornecerá a você detalhes importantes sobre desastres emergentes. O ChatGPT e outros LLMs também lutam para assimilar informações em tempo real e usá-las para fornecer conselhos. Isso é especialmente perceptível durante desastres naturais como incêndios, inundações ou furacões. Enquanto o furacão Milton se aproximava neste mês, perguntei ao ChatGPT se minha casa estava em perigo e onde Milton iria atingir. Embora o chatbot felizmente tenha evitado respostas erradas, ele não conseguiu me dar nenhum conselho, exceto para consultar canais de previsão do tempo locais e serviços de emergência. Não perca tempo com isso quando sua casa pode estar em perigo. Em vez de recorrer à IA para uma resposta rápida, consulte aplicativos de previsão do tempo e software como o Watch Duty, imagens de satélite atualizadas e notícias locais.

O ChatGPT não é bom em fornecer um cronograma de eventos e não deve ser usado para fazer recomendações. Quando perguntei sobre a Wyze, que a CNET não está recomendando atualmente, o ChatGPT disse que era uma “boa opção” para segurança em casa, mas mencionou que teve uma violação de dados em 2019 que expôs dados do usuário. Mas não mencionou que a Wyze expôs bancos de dados e arquivos de vídeo em 2022, depois de vulnerabilidades em 2023 e novamente em 2024 que permitiram que os usuários acessassem vídeos domésticos privados que não eram seus. Então, enquanto os resumos são bons, você certamente não está obtendo o quadro completo quando se trata de histórico de segurança ou se as marcas são seguras para confiar.

This website uses cookies.