
Meta pode interromper desenvolvimento de IA em caso de risco extremo
A empresa detalha em documento como irá agir diante de potenciais ameaças cibernéticas e biológicas
A Meta, empresa de tecnologia conhecida por suas inovações em redes sociais e inteligência artificial, divulgou recentemente um documento que aborda suas políticas de segurança em relação ao desenvolvimento de sistemas de IA. No texto, a companhia afirma que pode interromper o avanço de um projeto se avaliar que há um risco extremo de catástrofe associado a ele.
O documento, intitulado “Frontier AI Framework” (ou “Estrutura para IA de Vanguarda”, em tradução livre), possui 21 páginas e apresenta uma classificação detalhada dos riscos que a Meta considera ao desenvolver suas tecnologias. Entre os pontos abordados, a empresa destaca a possibilidade de não lançar um produto caso identifique um risco elevado.
Para a Meta, existem duas categorias principais de risco que podem levar a ações preventivas: risco alto e risco extremo, também denominado crítico. A distinção entre esses dois níveis é fundamental para a abordagem da empresa em relação à segurança de seus sistemas de IA.
- Risco alto: O sistema pode facilitar uma ação, mas não a torna viável.
- Risco crítico: O sistema torna a ação possível, e os riscos não podem ser mitigados durante a implementação.
Em situações de risco alto, a Meta afirma que o sistema não seria disponibilizado ao público e seu acesso seria restrito a um grupo seleto de pesquisadores. A intenção é proteger informações sensíveis e trabalhar para reduzir o risco a um nível moderado, onde a IA não poderia contribuir para um ataque.


Por outro lado, em casos de risco crítico, a resposta da Meta é ainda mais drástica. A empresa indicou que pausaria o desenvolvimento do sistema para investigar a viabilidade de implementar barreiras que evitem cenários catastróficos. O acesso a esses sistemas seria limitado a um pequeno grupo de especialistas, com rigorosas medidas de segurança para prevenir invasões e vazamentos de dados.
Para avaliar os riscos associados aos seus sistemas de IA, a Meta planeja considerar a opinião de pesquisadores tanto internos quanto externos. A empresa ressalta que tomadores de decisão de nível sênior revisarão esses comentários. Contudo, a companhia reconhece que o campo científico de avaliação de riscos ainda não possui métricas quantitativas suficientemente robustas para fundamentar suas decisões.
Essa abordagem da Meta reflete uma crescente preocupação com a segurança e a ética no desenvolvimento de tecnologias avançadas, especialmente em um cenário onde as implicações de sistemas de IA podem ser amplas e potencialmente perigosas.
O documento da Meta se alinha a um movimento mais amplo na indústria de tecnologia, onde empresas estão cada vez mais atentas aos riscos associados à inteligência artificial e à necessidade de implementar medidas de segurança rigorosas.
Veja também: