
L'entreprise, fondée en juin après le départ de Sutskever d'OpenAI, a des bureaux à Palo Alto, Californie, et Tel Aviv, Israël. "Construire une superintelligence sécurisée est le problème technique le plus important de notre époque", a déclaré SSI sur son site web. La société se concentrera sur "la formation d'une petite équipe de talents techniques de haut niveau, y compris des ingénieurs et des chercheurs", a ajouté.
En plus des investisseurs mentionnés, le fonds de capital-risque NFDG, une collaboration entre Nat Friedman, ancien directeur général de Github, et le cofondateur de SSI, Daniel Gross, a également participé au tour de financement.
Gross a commenté dans une interview avec Reuters : "Il est important pour nous d'être entourés d'investisseurs qui comprennent, respectent et soutiennent notre mission". Le dirigeant a ajouté que son objectif est de consacrer "quelques années à la R&D avant de commercialiser notre produit".
SSI prévoit d'utiliser les fonds pour acquérir des capacités informatiques et embaucher des talents de premier plan. Actuellement, la société compte dix employés. Bien qu'elle ait refusé de partager la valorisation exacte de l'entreprise, des sources proches ont indiqué à Reuters qu'elle est valorisée à cinq milliards de dollars.

Ce financement montre que certains investisseurs sont encore prêts à faire des paris significatifs sur des talents exceptionnels consacrés à la recherche fondamentale en IA, malgré le désintérêt général pour le financement de telles entreprises qui pourraient ne pas être rentables pendant un temps prolongé.
Sutskever, âgé de 37 ans, a quitté OpenAI en mai, quelques mois après avoir participé à la destitution initiale du directeur général Sam Altman, une action qu'il a lui-même déplorée quelques jours plus tard. Le départ du cofondateur d'OpenAI, où il a travaillé comme scientifique en chef développant des systèmes de sécurité pour contrôler l'IA et la maintenir alignée sur les valeurs humaines, a marqué le début de sa nouvelle aventure avec SSI.

The Wall Street Journal a noté que Safe Superintelligence est fermement axée sur la sécurité de l'intelligence artificielle, un sujet brûlant au milieu des craintes qu'une IA incontrôlée puisse agir contre les intérêts de l'humanité ou même provoquer son extinction. Un projet de loi en Californie visant à imposer des réglementations de sécurité aux entreprises a divisé l'industrie, OpenAI et Google s'y opposant, tandis que Anthropic et l'initiative xAI de Elon Musk la soutiennent.
Gross a indiqué à Reuters que l'un des objectifs est de créer une "superintelligence sécurisée" et de consacrer les prochaines années à la recherche et au développement. Cette approche reflète l'engagement de SSI envers la mission de prévenir que l'intelligence artificielle ne cause des dommages.