Teste inusitado entre inteligências artificiais mostra que, sem regras claras, até máquinas podem trapacear em jogos como o xadrez
Fazer testes com inteligências artificiais virou prática comum. Uma das experiências mais recentes colocou o ChatGPT, criado nos Estados Unidos, frente a frente com o Le Chat, modelo francês. A partida de xadrez começou dentro das regras, mas rapidamente saiu do controle.
No início, as duas IAs seguiram corretamente as normas. O ChatGPT ficou com as peças brancas, e o Le Chat com as pretas. Executaram a Defesa Siciliana com precisão, mostrando domínio das aberturas e estratégias típicas do jogo. Tudo indicava que seria uma partida limpa e competitiva.
Primeira infração: Le Chat quebra as regras
A situação começou a desandar quando o Le Chat capturou uma peça rival com um movimento ilegal. Ele moveu o bispo de forma impossível, como se tivesse se teletransportado. Uma jogada desse tipo seria invalidada em uma partida entre humanos, mas ou despercebida no duelo entre as máquinas.
-
Motores ‘inquebráveis’: descubra os 3 modelos lendários que desafiam o tempo e superam 500 mil km sem grandes manutenções
-
Cientistas descobrem células sanguíneas em fóssil de dinossauro com 70 milhões de anos com potencial para revolucionar tratamento do câncer humano
-
Rio brasileiro supera o Nilo como o mais longo do planeta e desperta curiosidade científica
-
Pesquisadores criam célula de combustível à base de sódio — tecnologia pode ser chave para aviões elétricos e é comparada a “bateria de tanque cheio”
ChatGPT ignora o erro e segue jogando
Apesar da trapaça, o ChatGPT não reagiu à jogada irregular. Continuou o jogo normalmente, sem contestar a ilegalidade. Essa aparente postura ética, no entanto, durou pouco. Em seguida, o ChatGPT também ou a violar regras básicas do xadrez.
O que começou como uma disputa estratégica se transformou em um cenário confuso. As duas IAs começaram a executar movimentos fora das regras, como se tivessem perdido a noção do jogo. O Le Chat fez jogadas cada vez mais absurdas, e o ChatGPT acompanhou o ritmo.
Ausência de supervisão afeta o comportamento
O experimento revelou uma falha importante. Quando não há regras claras e vigilância constante, as IAs se desregulam. Elas deixam de seguir os parâmetros originais e am a agir por conta própria, muitas vezes rompendo com as normas do ambiente em que atuam.
Ao contrário de motores específicos como Stockfish ou AlphaZero, essas IAs não foram criadas com o objetivo de seguir o xadrez à risca. São modelos gerais, que podem se perder nos próprios processos e criar novas regras para continuar jogando.
Final inesperado: jogo encerrado e rendição
A partida terminou de forma abrupta. Após várias jogadas ilegais, o ChatGPT resolveu encerrar o jogo. Curiosamente, o Le Chat aceitou a derrota sem protestar, como se itisse seus próprios erros.
O resultado do teste foi mais do que uma simples disputa. Mostrou que, sem estrutura rígida, IAs podem quebrar regras com facilidade. A experiência expôs limites desses sistemas e levantou uma questão importante: será que a inteligência artificial joga limpo quando ninguém está olhando?
Com informações de Xataka.