BLOG
Dados vazados do ChatGPT? Entenda a polêmica

Uma polêmica recente ampliou o debate sobre a segurança de dados na internet, em especial informações compartilhadas em ferramentas de Inteligência Artificial (IA), como o Google Gemini e o ChatGPT e demais plataformas.
Tudo começou após milhares de conversas derivadas do ChatGPT começarem a aparecer nas sugestões de busca do Google. O vazamento pegou de surpresa até mesmo a OpenAI, empresa criadora da tecnologia, que alegou falha na comunicação sobre a divulgação dos dados.
Continue a leitura para entender melhor a polêmica e, também, sobre a importância de manter boas práticas no compartilhamento de dados em ferramentas de IA.
Vazamentos de dados no ChatGPT: o que aconteceu?
Aconteceu o que todos temiam desde o surgimento das primeiras plataformas de Inteligência Artificial, o vazamento de dados de usuários comuns, o que aumentou ainda mais o receio sobre o que se deve compartilhar nessas ferramentas.
A polêmica surgiu após a implementação de um novo recurso no ChatGPT: o botão de compartilhamento de URL da conversa. O “engano” resultou em pelo menos 4.500 links com informações pessoais e de identidade divulgados, conforme divulgado pelo site Fast Company.
Com a função habilitada, os usuários davam permissão para que qualquer pessoa com o URL pudesse visualizar o chat compartilhado.
O problema, no entanto, é que esses diálogos começaram a aparecer nos mecanismos de buscas, dando acesso público a dados, conversas íntimas e diversas outras informações sigilosas.

Empresa teve que mudar a política de privacidade
A notícia do vazamento de dados teve um impacto tão negativo que a OpenIA, empresa detentora do ChatGPT, precisou emitir um comunicado assumindo a falha na comunicação e alterando completamente a política de privacidade da plataforma.
Em uma publicação na rede social X, Dane Stuckey, chefe de segurança da OpenAI, disse que o erro foi informacional e confundiu os usuários:
“Acreditamos que esse recurso criou muitas oportunidades para as pessoas compartilharem acidentalmente coisas que não pretendiam, por isso estamos removendo a opção.”
Outro porta-voz da OpenAI disse ao site TechCrunch que “a empresa introduziu muitas oportunidades para as pessoas compartilharem acidentalmente coisas que não pretendiam“.
Por fim, as conversas de quem não optou por compartilhar o conteúdo seguiram privadas, mas a empresa reconheceu o erro, destacando que a informação não estava clara ao aceitar a função “Compartilhamento”.
Apesar do recurso de compartilhamento ainda estar disponível, a nova política do ChatGPT impede a indexação do conteúdo em qualquer mecanismo de busca, restringindo o compartilhamento (caso permitido) unicamente à URL.
Privacidade de dados na internet: estamos realmente seguros?
O fato ampliou o debate sobre a privacidade de dados nas redes e acendeu o alerta sobre a segurança dos dados compartilhados na internet, ainda mais em ferramentas consideradas recentes, como a Inteligência Artificial.
Na “Era da Informação”, dados pessoais tem grande valor para empresas, que podem usar as informações de maneira estratégica em ações de marketing especialmente moldadas de acordo com o perfil de cada usuário.
Em um cenário ainda pior, dados compartilhados na internet podem ser usados por hackers para invadir contas bancárias, manipular redes sociais, usar fotos e vídeos para crimes de deepfakes, assim como manipular quaisquer informações pessoais relevantes.
Dessa forma, é fundamental redobrar a atenção sobre o que se oferece no ambiente digital, seja por meio de cookies, formulários, histórico de navegação e até mesmo por mídias postadas em perfis de redes sociais. Todo cuidado é pouco.
Leia também: