Curiosidades

Há 70% de chance de a IA gerar um colapso na humanidade, diz ex-OpenAI

0

A inteligência artificial (IA) é uma tecnologia que dá às máquinas a possibilidade de terem conhecimentos através de experiências, e permite que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. A princípio, isso é uma ótima ideia. No entanto, ninguém sabe ao certo até onde essa tecnologia pode nos ajudar ou então a IA causar o colapso da humanidade.

Essa preocupação parece ser uma pauta recente e está ganhando mais força entre as próprias pessoas ligadas a esse ramo. Tanto que a OpenAI tem sido alvo de críticas bem duras nesses últimos meses partindo dos próprios ex-funcionários. Dentre todas as críticas, são vistas muitas sobre a segurança e potencial dos sistemas de IA de causarem um colapso na humanidade.

Uma dessas pessoas é Daniel Kokotajlo, ex-pesquisador da divisão de governança da OpenAI, que fez acusações novas alegando que a empresa que criou o ChatGPT está ignorando os riscos relacionados com a inteligência artificial geral (AGI) para ser a primeira empresa a alcançá-la.

Além de Kokotajlo, um ex-diretor da equipe de controle sobre as super IAs tinha publicado vários alertas no seu Twitter quando saiu da empresa, em maio. Neles, ele destacou o fato de “a cultura e os processos de segurança ficarem em segundo plano” na OpenAI.

IA e colapso da humanidade

Canaltech

Kokotajlo deu uma entrevista para o The New York Times e disse que a probabilidade de a IA causar um colapso  catastrófico na humanidade é de cerca de 70%. “Essa é uma chance que você não aceitaria para nenhum evento importante na vida, mas a OpenAI e outras empresas estão avançando com essa probabilidade”, afirmou.

Ainda conforme ele, quando ele foi convidado para fazer a previsão do progresso da tecnologia, ele estava convencido que a indústria iria alcançar a AGI até 2027 e isso era um risco grande de dano, ou até destruição da humanidade.

Na visão dele, a OpenAI tem que “redirecionar para a segurança” e implementar mais medidas de controle ao invés de focar somente em fazer com que a tecnologia se torne cada vez mais inteligente.

Resposta da OpenAI

Também para o The New York Times, a empresa disse estar “orgulhosa de seu histórico em fornecer sistemas de IA seguros e capazes”. Ela também destacou que tem um compromisso com um debate bem rigoroso com relação aos riscos da tecnologia. Outro ponto levantado pela OpenAi foi que existe um comitê de segurança e integridade e uma linha direta anônima para os funcionários falarem sobre suas preocupações.

Contudo, conforme Kokotajlo, por mais que os protocolos de segurança estejam em vigor, as medidas dele raramente causam algum impacto nos avanços no desenvolvimento da IA. Ele dá o exemplo de um teste feito pela Microsoft na Índia no começo de 2023, onde foi usada uma versão não lançada do GPT-4 sem ter a aprovação do comitê de segurança.

Por conta de tudo isso, Kokotajlo saiu da OpenAI em abril. Ele mandou um e-mail se despedindo e disse que perdeu “a confiança de que a OpenAI agirá de forma responsável” na busca da criação de uma IA que tenha um nível quase humano.

Preocupação

Canaltech

A preocupação de que a IA possa gerar um colapso na humanidade não é algo exclusivo de Kokotajlo. De acordo com um levantamento feito na Yale CEO Summit desse ano, que aconteceu em junho, 42% dos CEOs que foram entrevistados disseram que a inteligência artificial tem um potencial de destruir a humanidade entre cinco e 10 anos.

Dos CEOs entrevistados, 34% disseram que a IA poderia destruir a humanidade em 10 anos, enquanto 8% apontaram que essa possibilidade poderia acontecer em cinco anos. Já 58% disseram que isso não é uma realidade e nunca poderá acontecer, por isso eles não estão preocupados.

Um outro ponto que o levantamento descobriu foi que 42% dos CEOs acreditam que a possibilidade de uma catástrofe feita pela inteligência artificial é exagerada. Mas 58% disseram que isso não é um exagero.

A preocupação é tão real que, no fim de maio desse ano, cientistas e empresários no comando de gigantes de tecnologia fizeram uma carta aberta onde diziam que era preciso que esforços fossem tomados no desenvolvimento da inteligência artificial para que ela não colocasse a humanidade em risco.

A carta foi assinada por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados “padrinhos” da IA moderna.

“Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerras nucleares”, pontuava a carta.

Além do documento, recentemente Hilton expressou suas preocupações individuais com relação ao desenvolvimento da IA. “Sou apenas um cientista que de repente percebeu que essas coisas estão ficando mais inteligentes do que nós. Eu quero soar o alarme e dizer que devemos nos preocupar seriamente em como impedimos que essas coisas controlem a nós”, disse.

Ainda conforme ele, se a inteligência artificial ficar bem mais inteligente do que os humanos, ela poderá ser “muito boa em manipulação”, até em “contornar as restrições que impomos a ela”.

Fonte: Canaltech, Terra

Imagens: Canaltech

Atividade humana contribuiu para a extinção do rinoceronte-lanudo

Artigo anterior

Coringa é oficialmente imune a um dos seres mais poderosos do Universo DC

Próximo artigo
Exit mobile version