Atenção! Meta AI pode usar todas as informações enviadas para ela para treinamento da ferramenta. Entenda riscos e saiba como se manter seguro ao utilizar o novo recurso.
Se você está usando a Meta AI, nova ferramenta de inteligência artificial (IA) do WhatsApp, é importante se atentar para algumas medidas de segurança e privacidade. Assim como o ChatGPT e outros chatbots, o recurso da Meta utiliza as mensagens enviadas para a IA para treinar e aprimorar a tecnologia. É possível se opor à coleta, mas, ainda assim é recomendado evitar o compartilhamento de certos dados sensíveis com os chatbots, como informações pessoais e de empresas. A seguir, cinco coisas que você não deve compartilhar com a Meta AI.
1. Informações pessoais
Nome completo, números de documentos, telefones, endereços e informações específicas do cotidiano não devem ser revelados à Meta AI. Caso o usuário não se oponha à coleta, todas as conversas com o chatbot podem ser usadas pela Meta para treinar a tecnologia. Desse modo, é recomendável evitar o compartilhamento de qualquer dado que exponha muito o usuário.
2. Local de trabalho e dados da empresa
Evitar falar sobre informações envolvendo o local de trabalho e dados da empresa é uma forma de garantir a segurança de dados corporativos. Qualquer conversa com a IA pode ser usada pela Meta para treinar a tecnologia. Desse modo, caso um restaurante tenha uma receita secreta, e ela seja compartilhada por um funcionário, essa informação pode ser posteriormente enviada a outros usuários. É importante deixar claro que as respostas e conversas com o sistema alimentam a maneira como a Meta AI funciona e responde.
Desse modo, dados sensíveis ou sigilosos, como documentos da empresa, registros de funcionários, endereços e contatos importantes devem se manter longe do chatbot. Essa medida de precaução visa evitar um possível vazamento de dados e a exposição de empresas e funcionários que podem ser prejudicados por uma falha na segurança desses sistemas.
3. Propriedade intelectual de terceiros
A propriedade intelectual é o conjunto de direitos que protege e reconhece a autoria de produtos e conhecimentos produzidos por indivíduos. Os principais tipos são os direitos autorais, as patentes, as marcas registradas e os desenhos industriais. Cada um deles é responsável por garantir que os criadores de cada obra tenham controle sobre o acesso a elas e sejam reconhecidos e recompensados por seus trabalhos.
Ao compartilhar informações sigilosas ou dados relevantes referentes à propriedade intelectual de terceiros, usuários podem ser responsáveis pela captação desse material pela plataforma, configurando pirataria. A Samsung, por exemplo, já teve problemas de segurança após uma falha ser exposta por um funcionário ao ChatGPT.
4. Dados bancários e financeiros
Dados bancários, números de cartões de crédito, senhas ou qualquer outro detalhe que envolva a vida financeira não devem ser compartilhados com uma inteligência artificial generativa. Essas informações são de cunho sensível e devem estar sempre protegidas. Caso terceiros tenham acesso à conversa com o chatbot, é possível subtrair rapidamente essas informações, e usá-las para golpes e fraudes on-line, por exemplo.
5. Conteúdos de própria autoria
Assim como a IA pode roubar conteúdos de terceiros, caso a tecnologia seja exposta a textos da autoria do usuário, eles podem rapidamente ser compartilhados na plataforma. É preciso estar vigilante ao que se compartilha, caso queira manter as inovações e trabalhos criativos seguros e protegidos, justamente porque a ferramenta ”se alimenta” dos dados compartilhados com ela.