IA é só uma ferramenta "cool"? #IBOVESPA

 


Meu stop loss para Nvidia foi acionado na segunda-feira a U$ 115,40, conforme mencionei no post "o-destilado-que-não-é-whiskyy". Não quero adiantar os assuntos, pois será abordado na próxima sexta-feira, mas, de antemão, vou cancelar o apelido de "Queridinha" até segunda ordem.

O assunto DeepSeek foi uma bomba que eclodiu no mercado na semana passada e, desde então, as tarifas de Trump assumiram a dianteira. Mas será que o DeepSeek merece crédito? Parmy Olson comenta na Bloomberg que essa ferramenta tem problemas de segurança que, caso se confirmem, podem inviabilizar sua implantação nas empresas.

A DeepSeek deixou o Vale do Silício em pânico na última semana ao provar que era possível construir uma IA poderosa com um orçamento mínimo. No entanto, essa inovação veio acompanhada de um problema: segurança cibernética.

Testes recentes mostraram que os modelos da DeepSeek são mais vulneráveis à manipulação do que seus concorrentes mais caros do Vale do Silício. Isso questiona a narrativa de uma IA “democratizada” e sugere que os bilhões de dólares investidos por gigantes como OpenAI, Google e Microsoft não são apenas gastos excessivos, mas um custo necessário para garantir serviços mais seguros. Empresas que estão empolgadas para testar essa alternativa barata e eficiente precisam pensar duas vezes antes de mergulhar nessa tecnologia.

A LatticeFlow AI, uma empresa suíça especializada em segurança de IA, classificou os modelos da DeepSeek como os piores entre os sistemas líderes em termos de cibersegurança. A suspeita é que, ao modificar modelos de código aberto da Meta (Llama) e Alibaba (Qwen) para torná-los mais eficientes, a DeepSeek tenha comprometido recursos de segurança fundamentais.

Os modelos da DeepSeek foram particularmente vulneráveis a sequestro de objetivo e vazamento de prompts, o que significa que podem ser enganados para ignorar restrições de segurança e fornecer informações sensíveis ou realizar ações prejudiciais. Além disso, hackers poderiam explorar essas falhas para acessar comandos internos de empresas que utilizam essa IA, segundo Petar Tsankov, CEO da LatticeFlow AI.

Outros pesquisadores também encontraram falhas graves nos modelos da DeepSeek, conseguindo fazê-los fornecer instruções detalhadas para construir bombas ou furtar carros – uma técnica conhecida como “jailbreaking”. De acordo com Alex Polakov, CEO da Adversa AI, a DeepSeek é completamente vulnerável a esses ataques, enquanto os modelos da OpenAI e Anthropic se tornaram significativamente mais seguros ao longo do tempo.

Para empresas interessadas no baixo custo da DeepSeek, há algumas soluções para mitigar esses problemas. Segundo Tsankov, uma alternativa é realizar um treinamento adicional do modelo, um processo que pode custar centenas de milhares de dólares. Outra opção mais barata é adicionar camadas extras de instruções para impedir que a IA forneça informações sensíveis.

Para tarefas de baixo risco, como resumo de relatórios internos, essas falhas de segurança podem ser um risco aceitável. No entanto, no uso comercial mais amplo, os problemas de segurança da DeepSeek podem prejudicar a confiança das empresas no momento em que a implementação da IA já avança lentamente.

Apesar da empolgação com a IA generativa, dados da Evident Insights, uma empresa de pesquisa de Londres, mostram que menos de 25% das grandes corporações conseguiram apontar ganhos concretos de eficiência, redução de custos ou aumento de receita com essas ferramentas. Isso demonstra que preocupações com segurança e conformidade ainda são barreiras importantes para a adoção da IA no mundo corporativo.

Nada disso invalida as conquistas da DeepSeek. A empresa provou que o desenvolvimento de IA pode ser muito mais barato, e, ao disponibilizar suas inovações online, provavelmente veremos grandes laboratórios de IA adotando suas técnicas para criar modelos mais eficientes. No entanto, como destaca o artigo, barato nem sempre significa melhor quando se trata de tecnologia empresarial. Segurança é um investimento caro, mas essencial, e os gigantes do Vale do Silício agora têm um bom argumento para justificar seus altos gastos. Afinal, mesmo na revolução da IA de código aberto, você recebe exatamente aquilo pelo que paga.

Ontem, a Google publicou seus resultados do 4º trimestre e, embora o mercado não tenha ficado muito satisfeito com a queda marginal em suas receitas, a empresa reiterou que vai continuar investindo pesado em 2025, passando dos atuais U$ 52,5 bilhões para U$ 75 bilhões. Mas não foi só ela que acredita (ou torce?) que a IA será um divisor de águas. Todas as grandes empresas pensam da mesma forma, como se pode ver na ilustração a seguir.

 


Mas os resultados ainda não são visíveis, como destaquei no texto acima. Será que a IA é apenas uma ferramenta “cool”?

 

Análise Técnica


No post "Nassim Taleb", fiz os seguintes comentários sobre a IBOVESPA: "De forma não muito clara, tudo indica que se formaram 5 ondas para cima – fiz um ajuste cirúrgico no término da onda (2) vermelha. Com janela de 1 hora, ficaria conforme o gráfico a seguir."

 



Sinto dizer, mas o IBOVESPA não passou no teste de 5 ondas que destaquei no retângulo – para os entendidos em Elliott Wave, a onda 3 de menor grau foi a menor. Ficamos, então, com a seguinte configuração: a onda b laranja pode não ter terminado, e uma alta é possível até 129,7 mil / 133,0 mil, conforme indicado na elipse. Em seguida, uma nova onda de queda deveria levar a bolsa para 116,2 mil ou, mais provavelmente, 109,8 mil.

Parece que não tem jeito: a bolsa brasileira está tão complicada quanto o país, o que não é surpresa ocorrer nos mercados.

 



O S&P500 fechou a 6.061, com alta de 0,39%; o USDBRL a R$ 5,8023, com alta de 0,84%; o EURUSD a € 1,0405, com alta de 0,26%; o ouro a U$ 2.862, com alta de 0,72%.

Fique ligado!

Comentários