A Skynet existe de verdade?

Published by

on

Bem, quem assistiu algum dos filmes da saga “O Exterminador do Futuro” – que transformou Arnold Schwarzenegger no megastar – , sabe do que se trata essa Skynet.

Mas tudo bem se você nunca ouviu falar, eu explico.

Nessa série de filmes, a Skynet é uma inteligência artificial altamente avançada criada no fim do século XX. Ela opera principalmente por meio de robótica e sistemas de computador. Assim que se tornou autoconsciente, ela viu a humanidade como uma ameaça à sua existência e decidiu acionar o holocausto nuclear, e enviar um exército de exterminadores contra os seres humanos. 

Bem, até aí tudo parecia apenas ficção-científica. Imagina… um super cérebro artificial tornar-se autoconsciente? Pensar sozinho? Never…

Meu caro, tenho notícias preocupantes, e as coisas não são bem assim… Você deve ter ouvido falar ou mesmo utilizado, pode ser por mera curiosidade, o ChatGPT, certo?

Ele foi criado pela OpenAI. Essa empresa, cujo maior financiador é a Microsoft, está no centro das atenções no universo da tecnologia graças aos seus avanços expressivos no campo da inteligência artificial. Tanto é que, em menos de 10 anos de existência, a companhia se estabeleceu como uma líder no campo da inteligência artificial.

Parece que a criadora do ChatGPT conseguiu mais uma proeza. Rumores dão conta de que a empresa teria criado uma IA revolucionária chamada Q-Star, com a habilidade de resolver problemas matemáticos complexos.

Reportagens da Reuters indicam que uma carta enviada ao conselho da OpenAI pelos pesquisadores da empresa apontava esse desenvolvimento como potencialmente perigoso para a humanidade.

“Pera”, você pode estar perguntando. “Uma máquina resolvendo problemas de matemática não seria uma boa? Qual o perigo?”

Seguinte (e essa explicação está nos diversos órgãos de imprensa do mundo):

Esta suposta nova inteligência artificial (ou algoritmo, sei lá como a gente poderia chamar) foi capaz de resolver problemas matemáticos que são ensinados no Ensino Fundamental.

“Dã… então ela não é tão inteligente assim, certo?”

A questão é que os pesquisadores jamais treinaram essa Q-Star com problemas matemáticos e suas soluções. A IA chegou na resolução dos problemas de forma independente.

Em outras palavras, ela aprende sozinha!

Como ela fez isso? Ninguém contou, até agora…

Os pesquisadores da OpenAI acreditam que a Q-Star poderia impulsionar descobertas científicas rapidamente, o que é um ponto positivo. Mas eles também demonstraram preocupações envolvendo uma IA tão avançada.

A matemática é considerada uma fronteira do desenvolvimento de IA generativa. A IA generativa atual é excelente na escrita e na tradução de idiomas, prevendo estatisticamente a próxima palavra, caso do CHATGPT. O mesmo acontece com imagens: a IA é treinada com bilhões de cores, traços, estilos etc. Caso das várias IA de imagem, como Midjourney.

No entanto, a capacidade de fazer contas, onde só existe uma resposta certa, implica que a IA teria maiores capacidades de raciocínio, semelhantes à inteligência humana.

Ao contrário de uma calculadora, que pode resolver um número limitado de operações, a Q-Star supostamente pode generalizar, aprender e compreender.

Até onde ela poderia ir? Qual seria seu limite? Ela pode desenvolver uma consciência?

Será mesmo que a Skynet já existe?

Humanos classificam e corrigem a saída do GPT, e a avaliação é incorporada de volta ao modelo. Assim, ele é treinado para produzir resultados que não contenham falsidades óbvias ou conteúdo inapropriado – pelo menos desde que humanos classifiquem ou corrijam esses textos.

São bilhões de dados usados para “treinamento” desses modelos, e como são modelos que “aprendem” com quanto mais dados forem alimentados, podem permitir muitas coisas sem supervisão.

Só para dar um exemplo, a literatura. Enquanto produz peças de arte aparentemente novas, a IA na verdade aprende com os estilos artísticos existentes e os reproduz sem copiar o conteúdo. Assim, ela contorna a acusação de plágio, mas tais obras de arte equivalem a um plágio de alta tecnologia, pois os modelos são incapazes de ser criativos. Eles geram conteúdo baseado em algoritmos de previsão aprendidos.

Como dizem alguns críticos sobre a IA:

“Suponhamos que você tenha uma maçã em sua mão. Então, você a solta, observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ser a afirmação: “cairá se eu abrir minha mão”. As duas afirmações são valiosas e podem estar corretas. Contudo, uma explicação significa algo a mais, inclui não apenas descrições e previsões, mas também conjecturas como “qualquer objeto deste tipo cairia”, mais a cláusula adicional: “devido à força da gravidade” ou “devido à curvatura do espaço-tempo”.

“Isto é uma explicação causal: a maçã não teria caído, se não fosse pela força da gravidade (…) isso é pensar”.

“E ainda que as pessoas também podem cometer erros de raciocínio, errar faz parte do pensamento, pois para ter razão, deve ser possível se equivocar”.

“O ChatGPT e algoritmos semelhantes são, por projeto, ilimitados no que podem ‘aprender’ (ou seja, memorizar). São incapazes de distinguir o possível do impossível.”

Fontes:

Reuters

The Decoder

Medium.com

BBC

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.