top of page

Especialistas pedem regulamentação para evitar “perda de controle” sobre a IA 09/02/2025

Foto do escritor: Ana Cunha-BuschAna Cunha-Busch

Foto ilustrativa da AI por Kirill KUDRYAVTSEV
Foto ilustrativa da IA por Kirill KUDRYAVTSEV

Por AFP - Agence France Presse



Especialistas pedem regulamentação para evitar “perda de controle” sobre a IA

Por Daxia ROJAS


Especialistas de todo o mundo pediram uma maior regulamentação da IA para evitar que ela fuja do controle humano, já que os líderes globais se reúnem em Paris para uma cúpula sobre a tecnologia.


A França, que está co-organizando a reunião na segunda e terça-feira com a Índia, optou por destacar a “ação” da IA em 2025, em vez de colocar as preocupações com a segurança em primeiro plano, como em reuniões anteriores em Bletchley Park, na Grã-Bretanha, em 2023, e na capital coreana, Seul, em 2024.


A visão francesa é que governos, empresas e outros atores se manifestem a favor da governança global para IA e assumam compromissos com a sustentabilidade sem estabelecer regras obrigatórias.


“Não queremos gastar nosso tempo falando apenas sobre os riscos. Há também o aspecto da oportunidade muito real”, disse Anne Bouverot, enviada do presidente Emmanuel Macron para a IA.


Max Tegmark, diretor do Future of Life Institute, com sede nos EUA, que tem alertado regularmente sobre os perigos da IA, disse à AFP que a França não deve perder a oportunidade de agir.


“A França tem sido uma campeã maravilhosa da colaboração internacional e tem a oportunidade de liderar o resto do mundo”, disse o físico do MIT.


“Há uma grande bifurcação na estrada aqui na cúpula de Paris, e ela deve ser abraçada.”


O instituto de Tegmark apoiou o lançamento no domingo de uma plataforma chamada Global Risk and AI Safety Preparedness (GRASP), que visa mapear os principais riscos ligados à IA e as soluções que estão sendo desenvolvidas em todo o mundo.


“Identificamos cerca de 300 ferramentas e tecnologias em resposta a esses riscos”, disse o coordenador da GRASP, Cyrus Hodes.


Os resultados da pesquisa serão repassados ao clube dos países ricos da OCDE e aos membros da Parceria Global sobre Inteligência Artificial (GPAI), um grupo de quase 30 nações, incluindo as principais economias europeias, o Japão, a Coreia do Sul e os Estados Unidos, que se reunirão em Paris no domingo.


Na semana passada, o primeiro Relatório Internacional de Segurança de IA também foi apresentado na quinta-feira, compilado por 96 especialistas e apoiado por 30 países: a ONU, a UE e a OCDE.


Os riscos descritos no documento vão desde os mais conhecidos, como conteúdo falso on-line, até os muito mais alarmantes.


“Estão surgindo constantemente evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos”, disse à AFP Yoshua Bengio, coordenador do relatório e notável cientista da computação.


A longo prazo, Bengio, vencedor do Prêmio Turing de 2018, teme uma possível “perda de controle” dos seres humanos sobre os sistemas de IA, potencialmente motivados por “sua própria vontade de sobreviver”.


“Muitas pessoas achavam que dominar a linguagem no nível do ChatGPT-4 era ficção científica há apenas seis anos, e então isso aconteceu”, disse Tegmark, referindo-se ao chatbot da OpenAI.


“O grande problema agora é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral (AGI) do que de descobrir como controlá-la.”


A AGI refere-se a uma inteligência artificial que igualaria ou melhoraria os seres humanos em todos os campos.


Sua abordagem em poucos anos foi anunciada por pessoas como o diretor da OpenAI, Sam Altman.


“Se o senhor observar a velocidade com que esses recursos estão aumentando, isso o faz pensar que chegaremos lá em 2026 ou 2027”, disse Dario Amodei, colega de Altman na rival Anthropic, em novembro.


“Na pior das hipóteses, essas empresas americanas ou chinesas perderão o controle disso e, depois disso, a Terra será administrada por máquinas”, disse Tegmark.


Stuart Russell, professor de ciência da computação em Berkeley, na Califórnia, disse que um de seus maiores temores são os “sistemas de armas em que a IA que controla o sistema de armas decide quem atacar, quando atacar e assim por diante”.


Russell, que também é coordenador da Associação Internacional para IA Segura e Ética (IASEI), coloca a responsabilidade firmemente sobre os governos para estabelecer salvaguardas contra IAs armadas.


Tegmark disse que a solução é muito simples: tratar o setor de IA da mesma forma que todos os outros setores.


“Antes que alguém possa construir um novo reator nuclear fora de Paris, o senhor precisa demonstrar a especialistas nomeados pelo governo que esse reator é seguro. Que o senhor não perderá o controle sobre ele... Deveria ser o mesmo para a IA”, disse Tegmark.


dax/tgb/rl


0 visualização0 comentário

Comments


Newsletter

 Subscreva agora o newsletter do Green Amazon e embarque na nossa viagem de descoberta, conscientização e ação em prol do Planeta

Email enviado com sucesso.

bg-02.webp

Patrocinadores & Colaboradores

Nossos Patrocinadores e Colaboradores desempenham um papel fundamental em tornar possível a realização de projetos inovadores, iniciativas educativas e a promoção da conscientização ambiental. 

LOGO EMBLEMA.png
Logo Jornada ESG.png
Logo-Truman-(Fundo-transparente) (1).png
  • Linkedin de Ana Lucia Cunha Busch, redatora do Green Amazon
  • Instagram GreenAmazon

© 2024 TheGreenAmazon

Política de Privacidade, ImpressumPolítica de Cookies

Desenvolvido por: creisconsultoria

PayPal ButtonPayPal Button
WhatsApp Image 2024-04-18 at 11.35.52.jpeg
IMG_7724.JPG
bottom of page