IA pode gerar um CAOS na Humanidade com a segurança comprometida, entenda

Antonio Oliveira Publicado em 17/06/2024, às 00h00

FacebookTwitterWhatsAppTelegramLinkedin
IA pode gerar um CAOS na Humanidade com a segurança comprometida, entenda - Reprodução
IA pode gerar um CAOS na Humanidade com a segurança comprometida, entenda - Reprodução

Nos últimos meses, os ex-funcionários da OpenAI criticaram a empresa, principalmente em relação à segurança e à possibilidade de os sistemas de IA acabarem com a humanidade. Daniel Kokotajlo, um ex-pesquisador da divisão de governança da OpenAI, levantou novas denúncias. Ele diz que a criadora do ChatGPT ignora os riscos associados à inteligência artifical geral (AGI) durante sua corrida para ser a primeira a usá-la.

Em maio, um ex-chefe da equipe de controle de super IA publicou vários alertas na rede social X (o antigo Twitter) após sua saída da empresa, enfatizando o fato de "a cultura e os processos de segurança ficarem em segundo plano".

Riscos catastróficos para o ser humano

Em uma entrevista ao jornal The New York Times, Kokotajlo afirmou que a probabilidade de a IA causar um colapso catastrófico na humanidade é de aproximadamente 70%.

Essa é uma chance que você não aceitaria para nenhum evento importante na vida, mas a OpenAI e outras empresas estão avançando com essa probabilidade", disse.

Ao ser convidado a prever os avanços tecnológicos, Kokotajlo disse que ficou convencido de que a indústria alcançaria a AGI até 2027 e que isso representava um grande risco de dano ou até mesmo destruição para a humanidade. Ele acha que a empresa deve "redirecionar para a segurança" e tomar mais controles em vez de se concentrar apenas em tornar a tecnologia mais inteligente.

Aviso sobre inteligência artificial

Além de Kokotajlo, um grupo de nove funcionários atuais e anteriores da OpenAI publicou uma carta aberta na última terça-feira (4) expressando preocupações semelhantes. No texto, eles pedem mais proteção para denunciantes e mais transparência das empresas do setor.

A equipe afirma que acredita que os sistemas de IA podem ajudar a humanidade, mas também reconhece os riscos associados à tecnologia, que incluem "o aprofundamento das desigualdades existentes, a manipulação e desinformação, até a perda de controle de sistema autônomos de IA, o que pode resultar potencialmente na extinção humana".

William Saunders, que deixou a OpenAI em fevereiro como engenheiro de pesquisa, e Carroll Wainwright, Jacob Hilton e Daniel Ziegler estão entre os signatários da carta. Alguns funcionarios da OpenAI atuais apoiaram a carta de forma anônima por medo de represálias. 

Membros do Google DeepMind, bem como Geoffrey Hinton, o "Padrinho da IA", que deixou o Google devido a preocupações semelhantes, apoiaram a carta.

Resposta da OpenAI

Em resposta às acusações, a OpenAI disse ao The New York Time que está "orgulhosa de seu histórico em fornecer sistemas de IA seguros e capazes" e que está comprometida a participar de um debate rigoroso sobre os riscos dessa tecnologia.

A empresa também disse que há um comitê de segurança e integridade e uma linha direta anônima para os funcionários falarem sobre suas preocupações.

Kokotajlo afirmou que os avanços tecnológicos raramente eram afetados pelas medidas, mesmo quando havia protocolos de segurança em vigor. O ex-pesquisador cita um exemplo de um teste que a Microsoft realizou na Índia no começo de 2023, que usou uma versão não lançada do GPT-4 sem a aprovação do comitê de segurança.