A SSI (Safe Superintelligence) tem atualmente dez funcionários e um investimento de mil milhões de dólares. A empreitada é de Ilya Sutskever, que co-fundou a OpenAI e aí trabalhou como cientista-chefe até maio deste ano, e tem como objetivo desenvolver sistemas de Inteligência Artificial (IA) avançados e seguros. Sutskever quer construir uma equipa altamente qualificada, com talento de topo encontrado em Palo Alto e em Tel Aviv e conta com Daniel Gross, que liderou esforços na área de IA na Apple, e Daniel Levy, ex-investigador da OpenAI.
Embora os valores ainda não estejam confirmados, com este investimento de mil milhões, a SSI estará valorizada em cinco mil milhões de dólares. Entre os investidores, encontramos as empresas Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel, além da NDFG, sociedade de investimentos de Nat Friedman e do responsável executivo da SSI Daniel Gross.
Com o advento da IA, surgem receios sobre o desenvolvimento destas tecnologias e do risco para humanos. Empresas como a SSI pretendem garantir que há formas de evitar que IA cause perigo aos seres humanos e que consiga agir contra os interesses da Humanidade. Sutskever diz que esta nova iniciativa fez sentido por “identificar uma montanha um pouco diferente da que eu estava a trabalhar”, cita a Reuters.
A SSI está virada para o lucro e Gross afirma ter passado horas a validar as candidaturas em busca de pessoas que possuam capacidades extraordinárias e estejam identificadas com a missão da empresa: “Uma coisa que nos entusiasma é quando encontramos pessoas interessadas no trabalho, mas que não estão interessadas na cena, na hype”.
A SSI tem planos para estabelecer parcerias com fornecedores de serviços na nuvem e empresas de chips, embora os nomes destas ainda não tenham sido revelados.