Meio ano depois: As previsões sombrias de Musk e Harari sobre IA são válidas?

À medida que nos aproximamos dos seis meses desde a divulgação de uma carta que pediu uma “pausa” no desenvolvimento da inteligência artificial (IA) globalmente, a organização Future Of Life (FLI) lançou recentemente um comunicado que levanta questões cruciais sobre a regulamentação da IA e insta várias empresas líderes na área a prestarem contas.

Anúncios

meio-ano-depois-as-previsoes-sombrias-de-musk-e-harari-sobre-ia-sao-validas
Meio ano depois: As previsões sombrias de Musk e Harari sobre IA são válidas?. (Foto: reprodução/internet)

No início deste ano, notáveis personalidades como Elon Musk, presidente da SpaceX e da Tesla, o historiador Yuval Noah Harari e o cofundador da Apple Steve Wozniak adicionaram suas vozes a esse apelo coletivo.

A carta original, assinada por mais de mil especialistas em IA, delineava um período de seis meses para estabelecer sistemas de segurança, novas autoridades reguladoras, vigilância sobre sistemas de IA, técnicas para distinguir entre realidade e artificialidade, e a criação de instituições capazes de enfrentar as “perturbações econômicas e políticas dramáticas (especialmente para a democracia) que a IA irá causar”.

Desde sua divulgação no final de março, muitos eventos significativos ocorreram no cenário do desenvolvimento da IA.

Isso incluiu a ida de líderes do setor ao Senado dos EUA para discutir a tecnologia e o início de debates na União Europeia sobre como regular a IA no continente.

Na semana passada, o A.I. Insight Forum nos EUA reuniu figuras influentes, como Elon Musk, Sam Altman (CEO da OpenAI), Mark Zuckerberg (CEO da Meta), Sundar Pichai (CEO do Google), Bill Gates (fundador da Microsoft), Satya Nadella (CEO da Microsoft) e Jensen Huang (CEO da Nvidia), para discutir como a tecnologia poderá evoluir em um futuro próximo.

O Futuro da IA em Questão

Passados seis meses, o FLI acredita que é hora de focar em perguntas que refletem as complexidades e os desafios do futuro da IA.

Muitas dessas questões concentram-se no impacto direto da tecnologia na vida humana. Entre as perguntas mais pertinentes estão:

  1. “Os sistemas que vocês estão construindo podem destruir a civilização?”
  2. “Seus sistemas podem matar ou ferir pessoas?”
  3. “Você se responsabiliza pelos danos causados pela IA?”

Essas perguntas essenciais não apenas revelam preocupações profundas em relação ao potencial da IA, mas também destacam a necessidade premente de regulamentação e responsabilidade à medida que essa tecnologia se torna cada vez mais presente em nossa sociedade.

A Necessidade de uma Abordagem Global

O FLI argumenta que a abordagem dos riscos associados à IA avançada deve ser uma iniciativa global.

A competição acirrada no desenvolvimento da IA, que atualmente está em andamento, apresenta riscos significativos e ameaça a realização das incríveis possibilidades que a IA pode oferecer.

Portanto, a coordenação eficaz exige a participação ativa de todas as partes envolvidas, sejam governos, empresas ou especialistas em IA.

A Carta Original e Suas Recomendações

É importante notar que a carta divulgada no início do ano não era apenas um alerta, mas também um guia de recomendações. Entre as diretrizes propostas estão:

  • Registro de Grandes Recursos Computacionais: Exigir o registro de grandes acúmulos de recursos computacionais usados no desenvolvimento da IA para maior transparência e acompanhamento.
  • Processo Rigoroso de Auditoria de Riscos: Estabelecer um processo rigoroso de auditoria de riscos para avaliar os possíveis impactos adversos da IA e implementar medidas preventivas.
  • Prova de Segurança e Ética: Exigir que os desenvolvedores provem que seus sistemas de IA são seguros, protegidos e éticos, garantindo que não causem danos indevidos.

Espera...