IA é só uma ferramenta "cool"? #IBOVESPA
Meu stop loss para Nvidia foi acionado na segunda-feira a U$
115,40, conforme mencionei no post "o-destilado-que-não-é-whiskyy". Não
quero adiantar os assuntos, pois será abordado na próxima sexta-feira, mas, de antemão,
vou cancelar o apelido de "Queridinha" até segunda ordem.
O assunto DeepSeek foi uma bomba que eclodiu no mercado na
semana passada e, desde então, as tarifas de Trump assumiram a dianteira. Mas
será que o DeepSeek merece crédito? Parmy Olson comenta na Bloomberg que essa
ferramenta tem problemas de segurança que, caso se confirmem, podem
inviabilizar sua implantação nas empresas.
A DeepSeek deixou o Vale do Silício em pânico na última
semana ao provar que era possível construir uma IA poderosa com um orçamento
mínimo. No entanto, essa inovação veio acompanhada de um problema: segurança
cibernética.
Testes recentes mostraram que os modelos da DeepSeek são
mais vulneráveis à manipulação do que seus concorrentes mais caros do Vale do
Silício. Isso questiona a narrativa de uma IA “democratizada” e sugere que os
bilhões de dólares investidos por gigantes como OpenAI, Google e Microsoft não
são apenas gastos excessivos, mas um custo necessário para garantir serviços
mais seguros. Empresas que estão empolgadas para testar essa alternativa barata
e eficiente precisam pensar duas vezes antes de mergulhar nessa tecnologia.
A LatticeFlow AI, uma empresa suíça especializada em
segurança de IA, classificou os modelos da DeepSeek como os piores entre os
sistemas líderes em termos de cibersegurança. A suspeita é que, ao modificar
modelos de código aberto da Meta (Llama) e Alibaba (Qwen) para torná-los mais
eficientes, a DeepSeek tenha comprometido recursos de segurança fundamentais.
Os modelos da DeepSeek foram particularmente vulneráveis a
sequestro de objetivo e vazamento de prompts, o que significa que podem ser
enganados para ignorar restrições de segurança e fornecer informações sensíveis
ou realizar ações prejudiciais. Além disso, hackers poderiam explorar essas
falhas para acessar comandos internos de empresas que utilizam essa IA, segundo
Petar Tsankov, CEO da LatticeFlow AI.
Outros pesquisadores também encontraram falhas graves nos
modelos da DeepSeek, conseguindo fazê-los fornecer instruções detalhadas para
construir bombas ou furtar carros – uma técnica conhecida como “jailbreaking”.
De acordo com Alex Polakov, CEO da Adversa AI, a DeepSeek é completamente
vulnerável a esses ataques, enquanto os modelos da OpenAI e Anthropic se
tornaram significativamente mais seguros ao longo do tempo.
Para empresas interessadas no baixo custo da DeepSeek, há
algumas soluções para mitigar esses problemas. Segundo Tsankov, uma alternativa
é realizar um treinamento adicional do modelo, um processo que pode custar
centenas de milhares de dólares. Outra opção mais barata é adicionar camadas
extras de instruções para impedir que a IA forneça informações sensíveis.
Para tarefas de baixo risco, como resumo de relatórios
internos, essas falhas de segurança podem ser um risco aceitável. No entanto,
no uso comercial mais amplo, os problemas de segurança da DeepSeek podem
prejudicar a confiança das empresas no momento em que a implementação da IA já
avança lentamente.
Apesar da empolgação com a IA generativa, dados da Evident
Insights, uma empresa de pesquisa de Londres, mostram que menos de 25%
das grandes corporações conseguiram apontar ganhos concretos de eficiência,
redução de custos ou aumento de receita com essas ferramentas. Isso
demonstra que preocupações com segurança e conformidade ainda são barreiras
importantes para a adoção da IA no mundo corporativo.
Nada disso invalida as conquistas da DeepSeek. A empresa
provou que o desenvolvimento de IA pode ser muito mais barato, e, ao
disponibilizar suas inovações online, provavelmente veremos grandes
laboratórios de IA adotando suas técnicas para criar modelos mais eficientes.
No entanto, como destaca o artigo, barato nem sempre significa melhor quando se
trata de tecnologia empresarial. Segurança é um investimento caro, mas
essencial, e os gigantes do Vale do Silício agora têm um bom argumento para
justificar seus altos gastos. Afinal, mesmo na revolução da IA de código
aberto, você recebe exatamente aquilo pelo que paga.
Ontem, a Google publicou seus resultados do 4º trimestre e,
embora o mercado não tenha ficado muito satisfeito com a queda marginal em suas
receitas, a empresa reiterou que vai continuar investindo pesado em 2025,
passando dos atuais U$ 52,5 bilhões para U$ 75 bilhões. Mas não foi só ela que
acredita (ou torce?) que a IA será um divisor de águas. Todas as grandes
empresas pensam da mesma forma, como se pode ver na ilustração a seguir.
Mas os resultados ainda não são visíveis, como destaquei no texto acima. Será que a IA é apenas uma ferramenta “cool”?
No post "Nassim Taleb", fiz os seguintes comentários sobre a IBOVESPA: "De forma não muito clara, tudo indica que se formaram 5 ondas para cima – fiz um ajuste cirúrgico no término da onda (2) vermelha. Com janela de 1 hora, ficaria conforme o gráfico a seguir."
Sinto dizer, mas o IBOVESPA não passou no teste de 5 ondas que destaquei no retângulo – para os entendidos em Elliott Wave, a onda 3 de menor grau foi a menor. Ficamos, então, com a seguinte configuração: a onda b laranja pode não ter terminado, e uma alta é possível até 129,7 mil / 133,0 mil, conforme indicado na elipse. Em seguida, uma nova onda de queda deveria levar a bolsa para 116,2 mil ou, mais provavelmente, 109,8 mil.
Parece que não tem jeito: a bolsa brasileira está tão
complicada quanto o país, o que não é surpresa ocorrer nos mercados.
O S&P500 fechou a 6.061, com alta de 0,39%; o USDBRL a R$ 5,8023, com alta de 0,84%; o EURUSD a € 1,0405, com alta de 0,26%; o ouro a U$ 2.862, com alta de 0,72%.
Fique ligado!
Comentários
Postar um comentário