SAN FRANCISCO/NEW YORK - Safe Superintelligence (SSI), nouvellement cofondée par l'ancien directeur scientifique d'OpenAI, Ilya Sutskever, a levé 1 milliard de dollars en espèces pour aider à développer des systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines, ont déclaré des cadres de l'entreprise à Reuters.
SSI, qui compte actuellement 10 employés, prévoit d'utiliser les fonds pour acquérir de la puissance de calcul et recruter les meilleurs talents. Elle se concentrera sur la constitution d'une petite équipe de chercheurs et d'ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv, en Israël.
L'entreprise a refusé de communiquer son évaluation, mais des sources proches du dossier ont indiqué qu'elle était évaluée à 5 milliards de dollars. Le financement souligne le fait que certains investisseurs sont toujours prêts à faire des paris démesurés sur des talents exceptionnels axés sur la recherche fondamentale en matière d'intelligence artificielle. Le financement souligne que certains investisseurs sont toujours prêts à faire des paris démesurés sur des talents exceptionnels qui se concentrent sur la recherche fondamentale en matière d'intelligence artificielle, et ce malgré une baisse générale de l'intérêt pour le financement de telles entreprises qui peuvent ne pas être rentables pendant un certain temps, et qui a poussé plusieurs fondateurs de startups à quitter leur poste pour des géants de la technologie.
Parmi les investisseurs figurent des sociétés de capital-risque de premier plan comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel. NFDG, un partenariat d'investissement dirigé par Nat Friedman et Daniel Gross, directeur général de SSI, a également participé à l'événement.
"Il est important pour nous d'être entourés d'investisseurs qui comprennent, respectent et soutiennent notre mission, qui est d'aller droit vers une superintelligence sûre et, en particulier, de passer quelques années à faire de la R&D sur notre produit avant de le mettre sur le marché", a déclaré M. Gross lors d'une interview.
La sécurité de l'IA, qui consiste à empêcher l'IA de nuire, est un sujet brûlant, car on craint que des IA malveillantes n'agissent contre les intérêts de l'humanité, voire ne provoquent l'extinction de celle-ci.
Un projet de loi californien visant à imposer des règles de sécurité aux entreprises a divisé le secteur. Des entreprises comme OpenAI et Google s'y opposent, tandis que Anthropic et xAI d'Elon Musk la soutiennent.
M. Sutskever, 37 ans, est l'un des technologues les plus influents dans le domaine de l'IA. Il a cofondé SSI en juin avec M. Gross, qui dirigeait auparavant les initiatives d'IA chez Apple, et Daniel Levy, un ancien chercheur d'OpenAI.
Sutskever est scientifique en chef et Levy est scientifique principal, tandis que Gross est responsable de la puissance de calcul et de la collecte de fonds.
NOUVELLE MONTAGNE
M. Sutskever a déclaré que sa nouvelle entreprise avait du sens parce qu'il avait "identifié une montagne un peu différente de celle sur laquelle je travaillais".
L'année dernière, il a fait partie du conseil d'administration de la société mère à but non lucratif d'OpenAI, qui a voté l'éviction du PDG d'OpenAI, Sam Altman, en raison d'une "rupture de communication".
Quelques jours plus tard, il est revenu sur sa décision et s'est joint à la quasi-totalité des employés d'OpenAI pour signer une lettre demandant le retour d'Altman et la démission du conseil d'administration. Mais la tournure des événements a réduit son rôle au sein d'OpenAI. Il a été écarté du conseil d'administration et a quitté l'entreprise en mai.
Après le départ de M. Sutskever, l'entreprise a démantelé son équipe "Superalignment", qui veillait à ce que l'IA reste alignée sur les valeurs humaines afin de se préparer au jour où l'IA dépassera l'intelligence humaine.
Contrairement à la structure d'entreprise peu orthodoxe d'OpenAI, mise en place pour des raisons de sécurité de l'IA mais qui a rendu possible l'éviction d'Altman, SSI a une structure normale à but lucratif.
SSI s'efforce actuellement de recruter des personnes qui s'intègrent à sa culture.
M. Gross a déclaré qu'ils passaient des heures à vérifier si les candidats avaient un "bon caractère" et qu'ils recherchaient des personnes dotées de capacités extraordinaires plutôt que de mettre l'accent sur les diplômes et l'expérience dans le domaine.
"Ce qui nous enthousiasme, c'est de trouver des personnes intéressées par le travail, qui ne s'intéressent pas à la scène, au battage médiatique", a-t-il ajouté.
SSI prévoit de s'associer à des fournisseurs d'informatique en nuage et à des fabricants de puces pour financer ses besoins en puissance de calcul, mais n'a pas encore choisi les entreprises avec lesquelles elle travaillera. Les startups spécialisées dans l'IA travaillent souvent avec des entreprises telles que Microsoft et Nvidia pour répondre à leurs besoins en matière d'infrastructure.
M. Sutskever a été l'un des premiers à défendre l'idée de la mise à l'échelle, selon laquelle les modèles d'IA gagneraient en performance si l'on disposait d'une grande quantité de puissance de calcul. L'idée et son exécution ont déclenché une vague d'investissements dans les puces, les centres de données et l'énergie, jetant les bases des progrès de l'IA générative comme ChatGPT.
M. Sutskever a déclaré qu'il aborderait la question de la mise à l'échelle d'une manière différente de celle de son ancien employeur, sans pour autant donner de détails.
"Tout le monde se contente de parler d'hypothèse de mise à l'échelle. Tout le monde néglige de se demander ce que l'on met à l'échelle", a-t-il déclaré.
"Certaines personnes peuvent travailler de très longues heures et suivre le même chemin plus rapidement. Ce n'est pas vraiment notre style. Mais si vous faites quelque chose de différent, alors il vous sera possible de faire quelque chose de spécial".