MONOPÓLIO É O GRANDE ROUBO

 O entusiasmo em torno da Inteligência Artificial, a tentativa fracassada dos EUA de monopolizá-la e a recente reação da China são uma lição sobre como inovar. Será que os EUA estão perdendo a capacidade de inovar?

Em meados de 2023, quando o tema Inteligência Artificial ganhou todas as manchetes já se glorificava essa tecnologia, com um grande entusiasmo, em especial com o ChatGPT. O programa lê a entrada de linguagem natural e a processa em alguma saída de conteúdo de linguagem natural relacionada. Isso não é novidade. A primeira Entidade Computacional Artificial Linguística da Internet (Alice) foi desenvolvida por Joseph Weizenbaum no MIT no início da década de 1960. Na década de 80, já se podia conversar com ELIZA, o ChatGPT é um pouco mais sofisticado e seus resultados iterativos, ou seja, as “conversas” que ele cria, podem surpreender, porém a propaganda em torno do chatgpt é meio exagerada.

Vamos dizer, vejam, os melhores modelos de linguagem de IA tem uma eficiência de uns 80%. A IA, por exemplo, o Chatgpt, processa símbolos e padrões, mas, naturalmente, não têm a compreensão do que esses símbolos ou padrões representam. Ainda há limitações no que tange a problemas  matemáticos e lógicos.

Há aplicativos muito bons de tradução de idiomas escritos, em que a IA tem resultados muito bons. Mas ainda não se pode confiar que eles acertem todas as palavras, os modelos ainda são assistentes, sempre será necessário verificar novamente os resultados.

Em geral, os modelos atuais de IA ainda não são capazes de decidir uma situação mais sensível do mundo real. Mais dados ou mais poder de computação não mudam isso. Se quisermos superar suas limitações, precisaremos usar algumas ideias novas ou diferentes.

Mas o entusiasmo continuou. O modelo de IA, o ChatGPT, fornecido por uma organização sem fins lucrativos, a OpenAI, se popularizou. O seu CEO, Sam Altman, como bom estadunidense logo percebeu que poderia ser uma organização COM fins lucrativos. Um ano após defender a estrutura sem fins lucrativos da OpenAI, Altman não resistiu e privatizou a empresa para si.

Daí então a OpenAI, fabricante do ChatGPT, reestruturou seu negócio principal em uma corporação beneficente com fins lucrativos e que não será mais controlada por seu conselho sem fins lucrativos, isso foi o que disseram à Reuters pessoas familiarizadas com o assunto, a ideia é que a empresa ficará "mais atraente" para os investidores.

O executivo-chefe Sam Altman também receberá, pela primeira vez, participação acionária na empresa com fins lucrativos, o que que poderá valer algo como US$ 150 bilhões após a reestruturação, o céu é o limite, vcs entendem. Não é o lema dos capitalistas o "a melhor coisa do capitalismo é ser um capitalista". Bom, vamos voltar a esta questão do lucro.

Outra questão é o modelo de linguagem do ChatGTP, fornecido pela OpenAI, era de código fechado. Uma caixa preta, executada na nuvem, com a qual se podia pagar para conversar, ou usar para traduzir, gerar conteúdo ou analisar determinados problemas.

O treinamento e a manutenção do ChatGTP exigiam grandes quantidades de computação e dinheiro. Era um pouco caro, só que não havia nenhuma tecnologia nova nele, os algoritmos eram já bem conhecidos e os dados necessários para “programá-lo” eram conteúdos da Internet, disponíveis gratuitamente.

Apesar de todo o alarde sobre a IA, não se trata de uma tecnologia secreta ou mesmo nova. A sorte da IA, num primeiro momento, é que a concorrência era praticamente inexistente. 

Bom, daí Yves Smith do blog Naked Capitalism, perguntou ao jornalista inglês, Edward Zitron. “Como é que o OpenAI sobrevive?” Zitron respondeu? Ela não sobrevive, ou tem pouca chance de sobreviver. Isso deixou os estadunidenses de boca aberta, dando risada.

Vamos ver, olha só, os políticos pensavam na IA como a grande chance de prever e controlar a opinião pública e as eleições. Daí tentaram impedir qualquer concorrência à liderança que os EUA tinham nesse jogo.

Logo, a Nvidia, grande fabricante de chips dos EUA, perdeu bilhões quando foi proibida de vender seus modelos mais recentes especializados em IA para a China.

E  daí Trump anunciou o Stargate, um investimento de US$ 500 bilhões em infraestrutura de IA nos EUA. Eu fiz um vídeo sobre este assunto. 

Três grandes empresas de tecnologia anunciaram que criarão uma nova empresa, chamada Stargate, para desenvolver a infraestrutura de inteligência artificial nos Estados Unidos.

O CEO da OpenAI, Sam Altman, o CEO da SoftBank, Masayoshi Son, e o presidente da Oracle, Larry Ellison, compareceram à Casa Branca na tarde de terça-feira ao lado do presidente Donald Trump para anunciar a empresa, que Trump chamou de “o maior projeto de infraestrutura de IA da história”.

As empresas investirão US$ 100 bilhões no projeto para começar, com planos de investir até US$ 500 bilhões no Stargate nos próximos anos. Espera-se que o projeto crie 100.000 empregos nos EUA, disse Trump.

A Stargate construirá “a infraestrutura física e virtual para alimentar a próxima geração de IA”, incluindo data centers em todo o país, disse Trump. Ellison disse que o primeiro projeto de dados do grupo, de 1 milhão de pés quadrados, já está sendo construído no Texas. Tudo isso eu disse no meu vídeo, aqui no Luz no Fim do Túnel. 

Bom, agora vejam, no mesmo dia, mas muito discretamente, uma empresa chinesa publicou um outro modelo de IA, o DeepSeek-R1-Zero e o DeepSeek-R 1.

O DeepSeek-R1-Zero é um modelo treinado por meio de "aprendizagem por reforço" (RL) em larga escala, sem o ajuste mais fino, supervisionado como uma etapa preliminar.  Demonstrou um desempenho notável no raciocínio. Com a RL, o DeepSeek-R1-Zero surgiu naturalmente com vários comportamentos de raciocínios mais do que poderosos e interessantes.

Os novos modelos do DeepSeek têm benchmarks ou comparativos melhores do que qualquer outro modelo disponível. Eles usam uma combinação diferente de técnicas, detalhe, isso foi obrigo com muito menos dados de treinamento, e muito menos poder de computação. São baratos de usar e, em um grande contraste com o OpenAI, são totalmente de código aberto.

Escreveu a revista Forbes:

Os controles de exportação dos EUA sobre semicondutores avançados tinham a intenção de desacelerar o progresso da IA na China, mas, sem querer, inadvertidamente estimularam a inovação. Sem poder contar apenas com o hardware mais recente, empresas como a DeepSeek, sediada em Hangzhou, foram forçadas a encontrar soluções criativas para fazer mais com menos.

Este mês, a DeepSeek lançou seu modelo R1, usando técnicas avançadas, como o aprendizado por reforço puro, para criar um modelo que não só está entre os mais formidáveis do mundo, mas é totalmente de código aberto, tornando-o disponível para qualquer pessoa no mundo examinar, modificar e desenvolver. Qualquer um, com conhecimento especializado do assunto, pode desenvolver e melhorar o Deep Seek.

O desempenho do DeepSeek-R1 é comparável aos melhores modelos de raciocínio da o1 da OpenAI, em uma série de tarefas, incluindo matemática, codificação e raciocínio complexo. 

Por exemplo, no benchmark ou comparativo de matemática AIME 2024, o DeepSeek-R1 obteve uma pontuação de 79,8% em comparação com os 79,2% do o1 da OpenAI, ou seja, superou o o1 da OpenAI. No benchmark MATH-500, o DeepSeek-R1 obteve 97,3% contra 96,4% do OpenAI o1. Em tarefas de codificação, o DeepSeek-R1 alcançou 96,3, enquanto o AIo1 alcançou o percentil 96,6, um tiquinho acima. 

O mais notável é que o DeepSeek conseguiu atingir um excelente nível por meio da inovação, em vez de depender dos mais recentes chips de computador.

A revista Nature disse:

Um modelo de linguagem construído na China, o DeepSeek-R1, está entusiasmando os cientistas como um rival acessível e aberto para modelos de “raciocínio”, como o da OpenAI.

“Isso é totalmente inesperado”, escreveu Elvis Saravia, pesquisador de IA e cofundador da empresa de consultoria de IA DAIR.AI, sediada no Reino Unido, no X.

O R1 se destaca por outro motivo, o DeepSeek, start-up de Hangzhou que criou o modelo, lançou-o como “open-weight”, o que significa que os pesquisadores podem estudar e desenvolver o algoritmo. Publicado sob uma licença MIT, o modelo pode ser reutilizado livremente, mas não é considerado totalmente de código aberto, pois seus dados de treinamento ainda não foram disponibilizados.

“A abertura do DeepSeek é notável”, diz Mario Krenn, do Laboratório de Cientistas Artificiais do Instituto Max Planck em Erlangen, Alemanha. Em comparação, o o1 e outros modelos criados pela OpenAI em São Francisco, Califórnia, incluindo seu mais recente esforço o3, são “essencialmente caixas pretas”, inacessíveis, diz ele.

Até mesmo os investidores de longo prazo da Internet, que já viram de tudo, estão impressionados:

Marc Andreessen , investidor e co-criador do Netscape e do Mosaic disse que o Deepseek R1 é um dos avanços mais impressionantes que já viu e, como código-fonte aberto, é um grande presente para o mundo.

A Nature acrescentou:

A DeepSeek não divulgou o custo total do treinamento do R1, mas está cobrando das pessoas que usam sua interface cerca de um trigésimo do custo de execução do o1. A empresa também criou mini versões do R1 para permitir que pesquisadores com poder de computação limitado possam brincar com o modelo.

A melhor coisa do R1 é o seu código-fonte estará à disposição de qualquer um, o hardware custa algo como US$ 50, o software é gratuito.

A maioria das pessoas provavelmente não se dá conta de como a Deepseek da China é uma má notícia para a OpenAI dos EUA.

Eles criaram um modelo que se iguala e até supera o modelo o1 mais recente da OpenAI em vários comparativos, e, detalhe, custa 97% mais barato. Ou seja, de o americano custa 100 reais o chinês custa 3 reais.

É como se alguém tivesse lançado um celular equivalente ao iPhone, e está vendendo por US$ 30 em vez de US$ 1.000. 

O código aberto é algo que o o1 da OpenAI não oferece, afinal seu objetivo final é o lucro e o código secreto. 

A história do DeepSeek é mais ou menos a seguinte, em 2007, três engenheiros chineses queriam criar um fundo de especulação financeira usando IA. Daí contrataram pessoas recém-saídas das universidades. Seu fundo até que ia bem, só que o governo chinês começou a reprimir a especulação financeira e o comércio quântico. 

Com tempo disponível e capacidade de computação não utilizada em seus computadores, os engenheiros começaram a construir o DeepSeek. Os custos eram mínimos. Enquanto a OpenAI, a Meta e o Google gastaram bilhões para desenvolver suas IAs, os custos de treinamento para os modelos do DeepSeek foram algo como US$ 5 milhões.

O DeepSeek foi criado sem precisar de bilhões em financiamento, sem contratar centenas de PhDs, praticamente do nada. O principal foi pensar de forma diferente e nunca desistir. Outra lição aqui é que criaram algo significativo, que pode ser usado por qualquer um, em vez de buscar a solução na especulação financeira e no enriquecimento artificial. 

Você pode usar barreiras comerciais e tecnológicas o quanto quiser, para manter a tecnologia longe dos concorrentes, mas isso não coube a inovação e a adaptação.

Trump e sua plutocracia tem bilhões, trilhões de dólares, são marqueteiros, ultra arrogantes e convencidos, mas enfrentam um problema difícil, e será que a IA poderá resolver? Como impedir a concorrência, aquilo que monopolistas mais odeiam na vida?  

Na guerra de ciência e tecnologia entre a China e os EUA, a vantagem da China vem justamente da proibição, dos embargos, das sanções dos EUA. 


Comentários

Postagens mais visitadas deste blog

Covideiros de plantão

O novo tirano

O TSUNAMI RADIOATIVO CAPAZ DE LAVAR OS EUA