O Perceptron de Rosenblatt: como começou a história da AI
Em 1958, o inventor Frank Rosenblatt criou o perceptron, o primeiro dispositivo funcional baseado no princípio de um neurônio artificial. Ele podia aprender e r

Em 1958, o psicólogo americano Frank Rosenblatt apresentou o perceptron — um dispositivo que muitos consideram a primeira rede neural praticamente funcional. Foi um passo decisivo que abriu o caminho para a inteligência artificial moderna.
O que é um perceptron?
Um perceptron é uma máquina eletrônica que imitava o funcionamento de um neurônio biológico no cérebro. Informações visuais (por exemplo, uma imagem de um objeto ou uma letra) eram fornecidas como entrada, sendo convertidas em sinais elétricos através de uma matriz de fotocélulas. O dispositivo continha componentes eletrônicos e um sistema de pesos que podiam ser ajustados mecanicamente.
Cada peso influenciava o quanto um sinal de entrada afetava a decisão de saída da máquina. A principal inovação era que o perceptron podia aprender. O algoritmo de aprendizado funcionava simplesmente: se a máquina cometia um erro, os pesos eram ajustados.
Com o tempo, o perceptron se tornava cada vez mais preciso no reconhecimento de padrões. Isso se assemelhava a como o cérebro humano aprende através da repetição e correção de erros.
A história de Rosenblatt e o nascimento das redes neurais
Frank Rosenblatt (1928–1971) foi um psicólogo e cientista da computação americano que trabalhou no Laboratório Aeronáutico Cornell. Seu projeto recebeu apoio da Marinha americana, que via um enorme potencial na automatização da análise de informações de inteligência e imagens. O primeiro perceptron, chamado Mark I, foi uma conquista tremenda da engenharia.
Foi apresentado ao público em geral em 1958 em uma coletiva de imprensa na presença de jornalistas, cientistas e oficiais sênior da Marinha. Rosenblatt afirmou com confiança que o perceptron era o início de uma era completamente nova de inteligência de máquina que logo poria fim ao trabalho intelectual rotineiro. Fisicamente, o dispositivo se assemelhava a uma parede eletrônica do tamanho de uma geladeira.
No interior havia 400 fotocélulas para percepção de imagem, um sistema complexo de circuitos eletrônicos e chaves mecânicas para ajuste de pesos.
Capacidades e limitações
O perceptron podia resolver tarefas que eram impressionantes para sua época, embora pelos padrões atuais pareçam elementares:
- Reconhecer formas geométricas simples (quadrados, triângulos, círculos) com precisão acima de 90%
- Distinguir letras do alfabeto latino com precisão suficiente para aplicação prática
- Aprender a partir de um pequeno conjunto de exemplos sem programação explícita de cada regra de reconhecimento
- Adaptar-se a pequenas variações nos dados de entrada (rotações, deslocamentos, dimensionamento)
- Operar em tempo real, o que foi uma conquista técnica extraordinária para a eletrônica dos anos 1950
Mas no final dos anos 1960, o matemático Marvin Minsky e seu colega Seymour Papert publicaram um trabalho crítico em que provaram limitações fundamentais do perceptron. Mostraram que um perceptron de camada única não podia resolver nem mesmo tarefas lógicas simples como a função XOR. Esta crítica levou a um declínio acentuado do interesse e do financiamento da pesquisa em redes neurais. Começou uma era que seria posteriormente chamada de "inverno da IA".
O que isso significa
O perceptron de Rosenblatt não era simplesmente uma descoberta de engenharia interessante — era prova de que as máquinas podiam aprender na prática. Antes do perceptron, todos os computadores eram simplesmente calculadoras que executavam instruções programadas. O perceptron mostrou que um dispositivo eletrônico podia alterar seu comportamento com base na experiência.
Hoje, mais de 60 anos depois, as redes neurais modernas são descendentes diretos do perceptron de Rosenblatt. Sim, elas contêm bilhões de parâmetros em vez de dezenas, funcionam em processadores gráficos em vez de chaves eletromecânicas, e usam algoritmos complexos de retropropagação em vez da simples regra de Hebb. Mas a ideia básica permanece a mesma: um sistema de pesos que se adapta aos dados e aprende a resolver tarefas através de exemplos.