A história da inteligência artificial é um percurso complexo de mais de 70 anos, moldado por conceitos pioneiros e avanços tecnológicos que hoje definem a interação humana com máquinas. O debate sobre a capacidade de “pensamento” das máquinas, outrora uma questão teórica, tornou-se central em diversas áreas da vida cotidiana, desde o atendimento ao cliente automatizado até as ferramentas de escrita para estudantes e profissionais.
A percepção do que é criado por humanos versus máquinas está em constante evolução. Essa reflexão não é nova; ela remonta a décadas, com o lançamento do artigo “Computing Machinery and Intelligence” por Alan Turing em 1950, onde ele instigou a provocação: as máquinas podem realmente pensar? Para traçar a trajetória que nos trouxe ao cenário atual, marcado por avanços notáveis e dilemas éticos, aprofundamos a cronologia por meio de uma vasta consulta a materiais científicos, livros e entrevistas com especialistas da área.
A história da inteligência artificial: 70 anos de avanços
Alan Turing (1912-1954), um eminente cientista da computação e matemático britânico, é reconhecido como um dos grandes precursores da inteligência artificial, antes mesmo que o termo fosse formalmente estabelecido. A expressão “inteligência artificial” viria a ser cunhada e difundida apenas em 1956, por outro cientista da computação, John McCarthy (1927-2011). Mesmo assim, as ideias seminais de Turing exerceram influência duradoura no campo. Foi em seu artigo de 1950 que ele introduziu o famoso “Jogo da Imitação”, mais tarde renomeado como Teste de Turing. Este experimento propõe um interrogador que, ao se comunicar via texto com um humano e uma máquina em cômodos separados, tenta distinguir qual é qual. Se o interrogador não conseguir fazer a distinção, argumenta-se que a máquina seria capaz de “pensar”.
Em uma palestra na BBC em 1951, Turing aprofundou esses temas, antecipando que, em cinquenta anos (por volta de 2000), computadores teriam um armazenamento de palavras tão vasto que os interrogadores teriam menos de 70% de chance de identificar a máquina após cinco minutos. Ele também delineou o conceito de aprendizado de máquina, sugerindo que sistemas deveriam aprender a partir de dados, em vez de serem totalmente programados de uma vez. “O cérebro da criança é algo como um caderno que se compra na papelaria: pouco mecanismo e muitas folhas em branco,” ele escreveu. Segundo Victor Sobreira, professor de História da USP, as previsões de Turing delinearam “o que foi o desenvolvimento da IA hoje”, consolidando-o como referência, uma trajetória reconhecida com a criação do prêmio Turing, considerado o Nobel da computação. Contudo, a aspiração por automatizar funções humanas precede Turing em milênios, como se observa na mitologia grega, com Talos, e nos escritos de Aristóteles sobre autômatos para aliviar o trabalho.
O Nascimento do Conceito de Inteligência Artificial
A origem do termo “inteligência artificial” é um ponto de inflexão na cronologia dessa ciência. Karen Hao, jornalista e autora do livro “Empire of AI”, detalha que o termo surgiu oficialmente em 1956, durante um congresso em Dartmouth College. O encontro reuniu cerca de vinte cientistas – predominantemente homens brancos de matemática, criptografia e ciências cognitivas. O professor John McCarthy, organizador do evento, batizara inicialmente a área de “estudos de autômatos”. No entanto, essa designação não angariava o interesse desejado. Buscando um rótulo mais impactante, McCarthy cunhou “artificial intelligence”.
Essa escolha estratégica foi, segundo Hao, uma “jogada de marketing”. O termo “inteligência” ressoava como algo sofisticado, aspiracional e promissor, capaz de mobilizar investimentos e impulsionar o avanço científico. A tática foi eficaz: o novo termo conferiu uma identidade a uma disciplina nascente, atraindo prestígio e recursos. Embora o Dartmouth College seja considerado um marco, o professor Victor Sobreira ressalta que “Dartmouth acabou virando um mito fundador, mas na prática foi um encontro de dois meses sem tanto avanço concreto.” Contudo, ele enfatiza a importância de ali terem se reunido figuras que viriam a se tornar expoentes da área nos EUA, como McCarthy e Marvin Minsky, os quais moldariam a pesquisa por décadas.
“Ali já nasce um pouco dessa questão do hype associado à IA,” observa Anderson Rocha, professor da Unicamp. Essa perspectiva, contudo, é contestada por alguns pesquisadores que veem a ideia de “mito de origem” como simplificadora, ignorando as conexões da IA com trajetórias históricas mais amplas, como a industrialização, o militarismo e o colonialismo. Um estudo de 2023 publicado na revista BJHS Themes, por exemplo, aponta a dependência da IA de minerais extraídos em condições precárias em nações africanas e a reprodução de lógicas coloniais na categorização de pessoas e territórios.
As Correntes de Pensamento e os ‘Invernos da IA’
A pós-conferência de Dartmouth presenciou a ascensão de duas vertentes de pesquisa. Karen Hao, em seu livro, descreve a primeira como a dos **simbolistas**, que viam a inteligência como um derivado do conhecimento. Sua abordagem focava na codificação de representações simbólicas do conhecimento humano em máquinas, o que levou à criação de “expert systems” e linguagens de programação como o Prolog nos anos 70 e 80, amplamente aplicados em setores como a aviação, conforme explica Anderson Rocha, professor da Unicamp. Paralelamente, os **conexionistas** defendiam que a inteligência era um resultado do aprendizado, visando criar sistemas de aprendizado de máquina que mimetizassem a forma como o cérebro humano processa informações. Desta escola nasceram as redes neurais, arquitetura que simula as conexões cerebrais e forma o alicerce da IA contemporânea.
Em julho de 1958, o jornal The New York Times noticiou o protótipo do Perceptron, desenvolvido pelo professor de psicologia Frank Rosenblatt da Universidade de Cornell. O periódico anunciou-o como o primeiro aparelho com a capacidade de “pensar como o cérebro humano”, que “cometeria erros, mas ficaria mais inteligente à medida que ganhasse experiência”. Capaz de reconhecer padrões, o Perceptron representou um marco na construção de uma máquina fundamentada em redes neurais. No entanto, Victor Sobreira aponta que essa abordagem era custosa demais à época, carecendo de poder computacional e dados suficientes. A forte oposição de Marvin Minsky, um dos idealizadores de Dartmouth, a essa visão – culminando na coautoria de um livro crítico – restringiu significativamente o financiamento para o campo conexionista por décadas.
“Durante muitos anos, a abordagem conexionista ficou atrás da simbólica”, observa Rocha. O cenário começou a mudar drasticamente com o advento massivo da internet, redes sociais e unidades de processamento gráfico (GPUs). A proliferação de dados e o exponencial aumento da capacidade de processamento rejuvenesceram a ideia original das redes neurais, propelindo a inteligência artificial conexionista a uma posição de destaque econômico e social. Apesar do avanço conexionista, a abordagem simbólica enfrentou limitações ao tentar traduzir o conhecimento humano em regras lógicas. Atualmente, busca-se a união das duas correntes, conhecida como IA neurossimbólica, para mitigar as respectivas desvantagens e criar sistemas mais robustos.
Em 1966, Joseph Weizenbaum desenvolveu Eliza, um chatbot que impressionou pela capacidade de simular diálogos humanos. Funcionando com regras simples de IA simbólica, o programa buscava dar a impressão de atenção e responsividade, pedindo mais detalhes após as interações dos usuários, em um esforço de imitar a elite através da mudança na fala. A eficácia do experimento levou psiquiatras a antecipar, inclusive, terapias automatizadas. Contudo, essa aceleração nas pesquisas de IA não persistiu na velocidade esperada devido a severas críticas.
Entre os anos 60 e 70, críticas contundentes direcionadas ao campo da IA levaram a cortes de financiamento por várias décadas. Em 1965, o filósofo Hubert Dreyfus, da Universidade da Califórnia, Berkeley, publicou o estudo “Alchemy and Artificial Intelligence”, contestando o investimento em pesquisas que tentavam espelhar o comportamento humano em máquinas digitais, dada a distância entre as promessas e a realidade. Mais tarde, em 1973, o matemático James Lighthill alertou sobre “explosões combinatórias”, argumentando que sistemas baseados em regras, embora complexos, só funcionariam em cenários controlados, como jogos, e não em situações do mundo real. Anderson Rocha descreve essa época como os “invernos da inteligência artificial”, períodos de grande redução de financiamento e desinteresse social e político pela área.
Triunfos em Jogos: Impulsionando a Percepção da IA
Momentos cruciais na história da IA que capturaram a atenção do grande público ocorreram quando máquinas superaram humanos em jogos. O professor Anderson Rocha da Unicamp ressalta que “jogos foram importantes e continuam sendo importantes, porque em jogos você tem uma simulação de uma situação, muitas vezes que você conhece. Com regras e ambiente relativamente controlado você consegue avaliar bem os seus algoritmos, as suas técnicas”.
Um relato da BBC relembra um episódio significativo de 1968: o campeão escocês de xadrez, David Levy, foi desafiado pelo inventor do termo IA, John McCarthy. Levy derrotou McCarthy, mas o pesquisador profetizou que, em uma década, os computadores conseguiriam o que ele não. Levy aceitou o desafio, apostando US$ 500 caso perdesse para uma máquina antes de 1979. Ele manteve sua invencibilidade em 1978, vencendo três de cinco partidas contra um computador. Somente em 1989, ele seria superado por um programa chamado Deep Thought, em Londres.
O episódio de maior impacto global foi em 1997, quando o supercomputador Deep Blue da IBM venceu o então campeão mundial de xadrez, Garry Kasparov. Conforme a IBM, a vitória do Deep Blue provou a superioridade computacional em jogos altamente estratégicos, considerados antes uma prerrogativa da inteligência humana. Em 2016, outro marco: o AlphaGo, do Google, derrotou o campeão mundial de Go, um jogo tido como muito mais complexo que o xadrez. No ano subsequente, outra equipe do Google publicaria um artigo que fundamentaria a IA generativa, base de sistemas como ChatGPT e Gemini.

Imagem: g1.globo.com
Transformer e a Revolução da IA Generativa
Em 2017, a equipe do Google apresentou o Transformer, uma nova arquitetura de rede neural que transformaria o panorama da IA. Essa tecnologia tinha a notável capacidade de captar o contexto integral de uma frase, prevendo as palavras mais prováveis em uma sentença. Ao contrário dos modelos precedentes, que processavam as palavras em sequência rígida, o Transformer examina o conjunto do texto para identificar os segmentos mais importantes. É como se a máquina destacasse automaticamente as palavras-chave que conferem significado a uma mensagem. O artigo seminal sobre essa tecnologia recebeu o título “Attention is All You Need” (“Atenção é tudo de que você precisa”).
O mecanismo inovador, conhecido como autoatenção (self-attention), permite ao computador conectar cada palavra a todas as outras em uma frase ou segmento, e não apenas àquelas adjacentes. No exemplo “o gato sentou no tapete porque estava cansado”, o modelo estabelece uma ligação direta entre “estava cansado” e “gato”, compreendendo conexões distantes no texto. Essa habilidade de priorizar as partes mais relevantes de uma conversa ou texto é o que permite aos modelos de IA atuais responderem a perguntas complexas e manterem diálogos coerentes. Originalmente testado em tarefas de tradução, Ilya Sutskever, cofundador e cientista-chefe da, na época, incipiente OpenAI, visualizou um potencial muito mais amplo para essa inovação.
OpenAI e a Era do GPT
No livro “Empire of AI”, Karen Hao documenta como Ilya Sutskever da OpenAI reconheceu no artigo do Google sobre Transformers um vasto potencial que transcendia traduções ou buscas na internet. Ele vislumbrou a chance de impulsionar o deep learning – técnica que utiliza redes neurais profundas para identificar padrões complexos em grandes volumes de dados. Foi nesse contexto que os pesquisadores da OpenAI decidiram ampliar seus horizontes.
Um artigo publicado pela OpenAI em 2018 demonstrou que, ao treinar um modelo de linguagem na tarefa genérica de prever a próxima palavra em milhões de frases, o sistema assimilava um vasto conhecimento que podia ser subsequentemente aplicado a diversas outras tarefas, incluindo a capacidade de responder a perguntas. Para atingir esse objetivo, a rede foi treinada com um gigantesco conjunto de mais de sete mil livros não publicados de variados gêneros, parte do dataset BooksCorpus. Essa estratégia revelou que, ao gerar frases convincentes, o sistema internalizava nuances profundas da linguagem. Sutskever sintetizava essa premissa afirmando que “inteligência é compressão”: a geração de texto forçava a máquina a condensar o conhecimento sobre o mundo.
Em 2018, a OpenAI lançou o GPT-1 (Generative Pre-Trained Transformer). O prefixo “pre-trained” indicava que o modelo havia sido previamente treinado em um amplo corpo de textos genéricos antes de ser ajustado para tarefas específicas. Este modelo não apenas validou a premissa de Sutskever, mas também pavimentou o caminho para versões mais robustas. Naquele período, a OpenAI contava com apenas três anos de existência, fundada em 2015 por nomes como Elon Musk e Sam Altman, com a visão de desenvolver IA de forma transparente e em benefício da humanidade. Devido a conflitos internos, Musk se desligou da OpenAI em 2018. Seus parceiros perceberam que, para atingir suas metas, a organização sem fins lucrativos precisaria se reestruturar como uma entidade de propósito misto, com um componente lucrativo para gerar o capital necessário. A partir do GPT-1, o desenvolvimento seguiu uma lógica de escala, com o aumento progressivo de parâmetros, o que incrementou a capacidade dos modelos de captar sutilezas da linguagem a partir de volumes de texto ainda maiores. Em 2022, chegou-se ao GPT-3.5, que serviu como base para o popular ChatGPT.
Os Limites Atuais e Futuros da Inteligência Artificial
O lançamento do modelo mais recente da OpenAI, o GPT-5, em agosto de 2025, gerou uma grande expectativa por um salto tecnológico similar ao observado entre as versões 3 e 4. No entanto, críticos argumentam que tal salto não foi alcançado. O Financial Times, por exemplo, publicou um artigo com o título “Is AI hitting a wall?” (A IA está batendo em uma parede?). Uma das principais críticas é que o avanço entre as versões parece ser uma mera escala de dados e poder computacional, uma fórmula que, segundo os especialistas, demonstra sinais de esgotamento. Mais recentemente, Sam Altman, CEO da OpenAI, foi criticado pelo lançamento de um aplicativo de geração de vídeos por IA.
Na quarta-feira, 1º de outubro, Altman utilizou sua conta no X (anteriormente Twitter) para compartilhar uma dessas críticas, que expressava: “Sam Altman há duas semanas nós precisamos de 7 trilhões de dólares e 10GW (gigawatts, referindo-se ao consumo de energia da IA) para curar o câncer. Sam Altman hoje: Estamos lançando vídeos de AI slop (de baixa qualidade) comercializados como anúncios personalizados.” Em sua resposta, Altman reconheceu a mensagem, mas argumentou que a empresa necessita de capital para desenvolver uma IA “capaz de fazer ciência.” Ele adicionou que “também é bom mostrar às pessoas novas tecnologias/produtos interessantes ao longo do caminho, fazê-las sorrir e, com sorte, ganhar algum dinheiro, dada toda essa necessidade de computação.”
“Modelos como o GPT-5, o novo Gemini e o Claude são fantásticos, mas não conseguem lidar com aspectos básicos do raciocínio humano, como o senso comum, a noção de causa e consequência ou a capacidade de imaginar cenários contrafactuais”, aponta Anderson Rocha, da Unicamp. Para ele, esses elementos não serão adquiridos apenas com mais dados. “Chegamos no limite”, conclui. Outro grande desafio reside na redução da dependência de vastos volumes de informação e recursos computacionais. “Precisamos chegar à performance atual, mas usando menos dados e menos energia, ou formas mais inteligentes de aprendizado que capturem padrões ainda não identificados”, defende Rocha. Além disso, as implicações sociais e políticas da IA exigem que “os sistemas precisam tomar decisões mais explicáveis, auditáveis e menos enviesadas, de forma a não reproduzir discriminações contra minorias ou grupos específicos.” Sobre a capacidade da IA de replicar a inteligência humana, ele mantém ceticismo: “Não sabemos, até porque a definição de inteligência é multifacetada. Envolve aspectos emocionais, sociais, psicológicos e políticos.”
A Historiografia da IA em Debate
Quando o pesquisador Victor Sobreira se dedicou à literatura sobre a evolução da inteligência artificial, ele notou que a narrativa histórica da IA era predominantemente contada pelos próprios pesquisadores da área, em vez de historiadores. Para ele, “a história da IA ainda está por ser construída de forma rigorosa, indo atrás dos arquivos, não apenas se baseando nos relatos dos próprios pesquisadores.” Ele classifica essa abordagem como uma “história autorreferencial”.
Em seu estudo, Sobreira defende que as fontes e a historiografia da inteligência artificial são “extremamente problemáticas”, muitas vezes “produzidas e construídas por pessoas próximas dos pesquisadores abordados, ocasionalmente até com financiamento dos objetos da pesquisa.” Ele ressalta a desvinculação dessas narrativas de seus contextos políticos e sociais, citando como exemplo a intrínseca relação do campo com as forças militares norte-americanas durante a Guerra Fria. “O exército norte-americano tinha um interesse direto no assunto. Investiu muito dinheiro para além também de empresas privadas. Encontrei pouco material que se aprofunda diretamente nessa relação,” afirma. Para mais detalhes sobre o percurso e o impacto do pai da computação, pode-se consultar o conteúdo completo disponível no portal da BBC sobre Alan Turing.
Confira também: crédito imobiliário
Em suma, a trajetória da inteligência artificial, de Turing ao GPT-5, revela uma constante busca por definir e replicar o pensamento humano. Enquanto os avanços são inegáveis, desafios técnicos, éticos e filosóficos permanecem. Para acompanhar as últimas novidades e análises aprofundadas sobre o futuro da tecnologia e seus impactos, visite a seção de Tecnologia em Hora de Começar.
Crédito da imagem: Frederic Lewis via Getty Images



