Tecnologia

NVIDIA diz que IA terá “pensamento humano” em 5 anos

A chamada inteligência artificial geral (AGI) pode aparecer tão logo quanto 2029, mas vai depender de sua definição

por João Gabriel Nogueira
NVIDIA diz que IA terá

Avanços constantes na IA podem resultar na capacidade das máquinas processarem de maneira semelhante ao pensamento humano em menos tempo do que se imagina, segundo declarações recentes do CEO da NVIDIA, Jensen Huang. O executivo da companhia que mais tem surfado na onda da inteligência artificial falou sobre o assunto durante um fórum econômico da Universidade de Stanford.

O dia em que a IA funcionar de maneira semelhante à nossa mente, ela vai passar a se chamar Inteligência Artificial Geral (AGI). Esse momento pode chegar em apenas cinco anos, por volta de 2029, segundo Huang. Tudo depende de como será definido esse limiar para a AGI.

A previsão do CEO da NVIDIA vale para uma definição de inteligência feita a partir de testes atualmente disponíveis:

“Se eu desse para a IA todo o teste que se possa imaginar, você faz uma lista dos testes e coloca na frente da indústria de ciência computacional, e eu acredito que num espaço de cinco anos, vamos nos sair bem cada um deles.”

Não há um consenso entre pesquisadores sobre como definir o que é inteligência e os funcionamentos mais profundos da mente humana. É por isso que o advento da AGI pode estar muito mais distante, se outros critérios forem estabelecidos.

Nvidia prevê IA um milhão de vezes melhor em 10 anos

Durante a mesma palestra, Huang foi perguntando sobre a necessidade de mais fábricas de chips para suprir a demanda por IA. Ao responder, ele fez uma previsão bastante ambiciosa para a tecnologia – que seu poder computacional deve melhorar em um milhão de vezes nos próximos dez anos.

“Nós vamos precisar de mais fábricas. Entretanto, lembre-se que estamos também melhorando os algoritmos de processamento tremendamente ao longo do tempo. Não é como se a eficiência da computação fosse ficar como está hoje, e assim a demanda é esse tanto. Estou melhorando a computação em um milhão de vezes ao longo de 10 anos.”

Leia mais notícias de tecnologia aqui.