A nova equipa da OpenAI vai dedicar-se a mitigar “riscos catastróficos” que a Inteligência Artificial possa trazer. O conjunto, anunciado na quinta-feira, é descrito como uma equipa que vai “rastrear, avaliar, prever e proteger” contra grandes perigos, incluindo ameaças nucleares causados pela IA.
Estes especialistas vão trabalhar para mitigar “ameaças químicas, biológicas e radiológicas”, bem como proteger conta a “replicação autónoma”, ou seja, o ato de a IA se replicar sozinha e contra a capacidade de a IA conseguir enganar humanos ou sistemas de cibersegurança, explica o The Verge.
A OpenAI acredita que os modelos de fronteira da IA vão ultrapassar todas as habilitadas atuais dos modelos mais avançados, com o potencial de beneficiar toda a Humanidade, embora trazendo também potenciais riscos severos.
A equipa agora constituída vai ser liderada por Aleksander Madry, de licença do seu papel de diretor do Center for Deployable Machine Learning do MIT, e vai manter uma política de desenvolvimento consciente e informada dos riscos.
Recorde-se que Sam Altman, CEO da OpenAI já alertou, juntamente com outros cientistas proeminentes da área, sobre o risco de extinção trazido pelos sistemas de IA e apelou à criação de regulação governamental.