Por que você NUNCA deve contar seu nome para um chatbot de IA


Especialistas estão levantando bandeiras vermelhas sobre o compartilhamento de informações pessoais com chatbots de Inteligência Artificial (IA), como o famoso ChatGPT. Stan Kaminsky, um especialista em segurança da Kaspersky, enfatiza que até mesmo detalhes aparentemente inofensivos, como nome, endereço ou telefone, deveriam ser deixados longe dessas plataformas. Mas, o que faz com que até mesmo o compartilhamento do seu nome se torne uma preocupação?

O dilema da privacidade em chatbots de IA

A principal questão aqui não é que as informações fornecidas aos chatbots se tornem imediatamente públicas; o problema é que não existe uma garantia sólida de que esses dados permanecerão privados indefinidamente.

Por exemplo, o ChatGPT da OpenAI armazena conversas que, embora possam parecer privadas, podem ser utilizadas posteriormente para a correção de problemas técnicos ou até mesmo para o treinamento de novas versões do software.

Riscos potenciais

Um risco preocupante é a possibilidade de vazamentos de dados devido a bugs ou ataques cibernéticos. Um incidente relatado pelo site Ars Technica manifestou suspeitas de que o ChatGPT poderia estar expondo conversas privadas de usuários. Embora a OpenAI tenha esclarecido que o ocorrido foi, na verdade, um roubo de contas, o alerta sobre a segurança de nossos dados permanece.

Informações que parecem triviais, como seu nome e telefone, podem acabar tornando-se ferramentas para golpistas. Imagine, por exemplo, um crime cometido por um atendente de banco com acesso ao seu nome completo e número de telefone; os riscos de fraude tornam-se significativamente mais altos.

Cuidados com documentos

Outra recomendação é evitar o envio de documentos através desses chatbots. Mesmo com plug-ins que permitem o processamento de documentos via IA, o risco de exposição de dados sensíveis é alto. Documentos corporativos, informações sobre pagamentos de funcionários ou até detalhes sobre lançamentos de produtos podem acabar caindo em mãos erradas.

Dicas de uso seguro

Quando você precisar usar um chatbot para tarefas que envolvam dados pessoais, uma boa prática é modificar as informações específicas ou usar asteriscos em substituição aos dados reais. Essa medida simples pode ajudar a proteger suas informações de possíveis usos indevidos.


Leave a Reply

Your email address will not be published. Required fields are marked *