Quando a DeepSeek – a Inteligência Artificial de código aberto chinesa – foi apresentada em janeiro deste ano, a notícia de que entregava a mesma qualidade de conteúdo que os seus principais concorrentes utilizando menos poder de processamento gerou um impacto expressivo no mercado, chegando a derrubar as ações da principal fornecedora de chips do mundo.
Pouco tempo depois, a Alibaba, gigante chinesa do comércio eletrônico, lançou a sua própria ferramenta, a Qwen2.5 Max, para competir de frente com os modelos mais modernos. Na mesma toada, a Meta acaba de apresentar a nova geração de sua IA, a Llama 4.
Essa sequência de lançamentos demonstra a corrida dentro do mercado de IA. A tendência é de que cada vez mais organizações (e nações) lancem versões mais aprimoradas de suas próprias ferramentas, com maior capacidade de processamento, a um custo reduzido, com um modelo mais sustentável.
O fato é que teremos a IA cada vez mais embarcada nos produtos e serviços oferecidos, sempre com a promessa de entregar mais eficiência e produtividade. Diante desse contexto, é fundamental entender a tecnologia por trás dela para que usuários e organizações não assumam riscos de forma desavisada.
Riscos do uso desinformado da IA
No relatório Global Risks Report 2025, do Fórum Econômico Mundial, a desinformação (“misinformation”) e a informação falsa (“disinformation”) foram apontadas como dois dos principais riscos para este ano. Boa parte desse risco decorre, sugere o relatório, da proliferação de notícias falsas e de conteúdos falsos gerados por meio de IA, como os deepfakes.
Para a área de cibersegurança, os deepfakes são um ponto de atenção à parte por se tratar de um recurso constantemente usado por cibercriminosos para cometerem fraudes.
Essa técnica foi detalhada no e-book que produzimos para ajudar usuários e empresas a evitarem cair em armadilhas. Veja como acessar aqui .
Decisões baseadas em dados incorretos
O Conselho Nacional de Justiça está investigando um caso em que um juiz de Montes Claros (MG) incluiu jurisprudências inexistentes em uma sentença desfavorável a uma servidora pública. As jurisprudências teriam sido criadas pelo ChatGPT, de acordo com o processo.
O caso serve de alerta para todas as empresas. Empresas que usam IA sem compreender totalmente seus resultados podem ser responsabilizadas por erros como o citado.
Exposição de dados confidenciais
A cautela com o compartilhamento de dados é um ponto crucial da discussão. Um estudo conduzido no final de 2024 mostrou que 8,5% dos prompts inseridos por funcionários em ferramentas de IA generativa podem expor informações sensíveis das organizações.
O risco de ser um “early adopter” assim que uma nova IA surge é que nunca sabemos, de fato, para onde estão indo os dados que estamos compartilhando e como eles estão sendo armazenados. É sempre importante lembrar que nada que parece gratuito de fato o é. As informações disponibilizadas em um prompt para a IA podem ser comprometidas de alguma forma, o que ameaça a privacidade.
Precisamos ter em mente que daqui em diante esses lançamentos serão frequentes e tendem a ser sempre acompanhados de muito barulho. Por isso é fundamental que as discussões sobre regulamentações da IA evoluam na mesma velocidade. Somente com a participação de diferentes esferas da sociedade que encontraremos um caminho que nos proteja de interesses escusos mascarados com marketing midiático.
Caso contrário, seremos levados pelas demais ondas, sem entender, de fato, o quanto estamos comprometendo nossos dados (e das organizações onde trabalhamos) a médio e longo prazo. Afinal, tudo a leva a crer que a onda da DeepSeek já passou, mas como vamos nos preparar para a próxima?