Curiosidades

Em 10 anos haverá uma superinteligência artificial que será 10 mil vezes mais inteligente que humanos

0

A inteligência artificial (IA) e o seu desenvolvimento está dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto. Até porque ninguém sabe ao certo qual o limite de desenvolvimento e se ele existe, podendo chegar a uma superinteligência artificial.

As projeções a respeito do futuro dessa tecnologia e o impacto que ela terá na humanidade são várias, sendo algumas até com um caráter de temor. E vários analistas e executivos fazem suas apostas a respeito do que poderá ser visto no futuro. Dentre os medos das projeções é que a IA se torne autossuficiente e supere a inteligência humana.

Isso pode ser um temor para muitos, mas para Masayoshi Son, CEO e fundador conglomerado de investimento japonês Softbank, se depender dele essa será a realidade em um futuro bem próximo.

Superinteligência artificial

Olhar digital

Na visão de Son, até 2030 a inteligência artificial será de uma a 10 vezes mais inteligente que humanos. E até 2035, será 10 mil vezes mais inteligente, ou seja, uma verdadeira superinteligência artificial.

Além dele, Jensen Huang, CEO e cofundador da NVIDIA, faz a projeção de que a IA irá conseguir pensar como humanos em 2029.

Contudo, os dois pontuam que para chegar nesse ponto irá ser preciso chegar em uma inteligência artificial geral (AGI) e ir mais além na superinteligência artificial (ASI). De acordo com Son, uma ASI iria ser equivalente com um gênio humano, mas com um fator de até 10 vezes. Com isso, essa superinteligência artificial iria conseguir ter 10 mil vezes a inteligência ou capacidade humana.

De acordo com Sam Altman, CEO da OpenAI, responsável pelo ChatGPT, uma AGI deve ser lançada em aproximadamente cinco anos. “Se a AGI for criada com sucesso, esta tecnologia poderá ajudar a nos elevar a humanidade, aumentando a abundância, turbinando a economia global e ajudando na descoberta de novos conhecimentos científicos que alteram os limites das possibilidades”, pontuou a empresa.

Para os criadores da AGI de uma maneira positiva, ter uma IA cada vez mais inteligente e diversa irá poder lidar de forma mais assertiva nos diagnósticos de doenças, sugestão de tratamentos de saúde, interpretação de documentos em tribunais, planejar imóveis, fechar acordos e até fazer descobertas científicas.

Na visão de Son, a superinteligência artificial poderá interagir uma com a outra, assim como fazem os neurônios, e ela poderá ser feita sem um intermédio humano.

Controle

Olhar digital

A criação de uma superinteligência artificial pode parecer algo a ser atingido, mas de acordo com um estudo feito pelos cientistas do Instituto Max-Planck para o Desenvolvimento Humano, na Alemanha, os seres humanos podem não conseguir controlar uma IA de alto nível.

O estudo considerou que para conseguir controlar uma superinteligência artificial, teria que se fazer uma simulação dela. Mas como ela ainda não pode ser compreendida, é impossível que essa simulação seja feita.

De acordo com os autores, regras como a de “não causar danos aos humanos” não podem ser estabelecidas e implementadas se os cientistas não compreenderem qual é o cenário que a IA pode apresentar no futuro. E se o sistema de computador estiver funcionando um nível acima do que os programadores compreendem, não será possível que limites sejam estabelecidos.

“Uma superinteligência apresenta um problema diferente daqueles estudados sob a bandeira da ‘ética robótica’. Isso ocorre porque uma superinteligência é multifacetada e, portanto, capaz de mobilizar uma diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os humanos. Por isso são muito menos controláveis”, escreveram os pesquisadores.

Uma parte desse raciocínio veio da “problemática da parada” que o matemático britânico Alan Turing apresentou em 1936. O ponto que ela prega é saber se um programa de computador irá ou não chegar a uma conclusão, ou seja, irá parar, ou se ele ficará em um looping eterno procurando uma resposta.

Mesmo que em casos específicos seja possível saber a resposta, é logicamente impossível que se encontre uma forma em que os cientistas saibam hoje a resposta para cada programa que possa ser feito no futuro. Já no caso da IA, qualquer programa que seja escrito para impedir que ela prejudique os humanos pode chegar a uma conclusão e parar ou não. Ou seja, é impossível ter uma certeza absoluta.

Por conta disso, de acordo com os pesquisadores, uma alternativa para ensinar alguma ética para a IA e falar para ela não destruir o mundo é limitar suas capacidades. Isso pode ser feito através de cortes de conexão com determinadas redes com a internet.

Mesmo assim, o estudo rejeitou essa ideia e pontuou que se isso fosse feito iria limitar o alcance da IA. Eles argumentaram que se a IA não for usada para solucionar problemas que os humanos não conseguem, qual o motivo de ela ser criada?

“Uma máquina superinteligente que controla o mundo soa como ficção científica. Mas já existem máquinas que realizam tarefas importantes de forma independente, sem que os programadores entendam totalmente como elas aprenderam. Surge, portanto, a questão de saber se isso pode, em algum momento, se tornar incontrolável e perigoso para a humanidade”, disse Manuel Cebrian, do Instituto Max-Planck para o Desenvolvimento Humano, em Berlim, e coautor do estudo.

Fonte: Hardware,  Época negócios

Imagens: Olhar digital

Espetáculo incomum: temperaturas extremas congelam ondas do mar na Terra do Fogo

Artigo anterior

Corrida pelo ouro no Brasil deve começar com descoberta de mina

Próximo artigo