SAN FRANCISCO/NEW YORK – Safe Superintelligence (SSI), nouvellement co-fondée par Ilya Sutskever, ancien directeur scientifique d’OpenAI, a levé un milliard de dollars en liquidités pour aider à développer des systèmes d’intelligence artificielle (IA) sûrs qui dépassent de loin les capacités humaines, ont déclaré des cadres de l’entreprise à Reuters.
SSI, qui compte actuellement dix employés, prévoit d’utiliser les fonds pour acquérir de la puissance de calcul et recruter les meilleurs talents. Elle se concentrera sur la constitution d’une petite équipe de chercheurs et d’ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv.
La société a refusé de communiquer sa valorisation, mais des sources proches du dossier ont déclaré qu’elle était évaluée à 5 milliards de dollars.
Ce financement montre que certains investisseurs sont toujours prêts à faire des paris démesurés sur des talents exceptionnels axés sur la recherche fondamentale en matière d’IA. Et ce, malgré un désintérêt général pour le financement de ces entreprises qui peuvent être non rentables pendant un certain temps, et qui a poussé plusieurs fondateurs de start-ups à quitter leur poste pour des géants de la technologie.
Parmi les investisseurs figurent des sociétés de capital-risque de premier plan comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel. NFDG, un partenariat d’investissement contrôlé par Nat Friedman et le directeur-général de SSI, Daniel Gross, a également participé.
« Il est important pour nous d’être entourés d’investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de faire une ligne droite vers la super-intelligence sûre et en particulier de passer quelques années à faire de la R&D sur notre produit avant de le mettre sur le marché », a déclaré Gross dans une interview.
La sécurité de l’IA, qui consiste à l’empêcher de nuire, est un sujet d’actualité, car on craint que des IA malveillantes n’agissent contre les intérêts de l’humanité, voire ne provoquent l’extinction de celle-ci.
Un projet de loi californien visant à imposer des règles de sécurité aux entreprises a divisé le secteur. Des entreprises comme OpenAI et Google s’y opposent, tandis que Anthropic et xAI d’Elon Musk la soutiennent.
Sutskever, 37 ans, est l’un des spécialistes les plus influents dans le domaine de l’IA. Il a co-fondé SSI en juin avec Gross, qui a précédemment dirigé des initiatives d’IA chez Apple, et Daniel Levy, un ancien chercheur d’OpenAI.
Sutskever est scientifique en chef et Levy est scientifique principal, tandis que Gross est responsable de la puissance de calcul et de la collecte de fonds.
Un nouveau domaine
Sutskever a déclaré que sa nouvelle entreprise avait du sens parce qu’il avait « identifié un domaine un peu différent de celui sur lequel je travaillais ».
L’année dernière, il faisait partie du conseil d’administration de la société mère à but non lucratif d’OpenAI, qui avait voté pour évincer le PDG d’OpenAI, Sam Altman, en raison d’une « rupture de communication ».
Quelques jours plus tard, il était revenu sur sa décision et s’était joint à la quasi-totalité des employés d’OpenAI pour signer une lettre demandant le retour d’Altman et la démission du conseil d’administration. Mais la tournure des événements avait réduit son rôle au sein d’OpenAI. Il a été démis de ses fonctions au sein du conseil d’administration et a quitté l’entreprise en mai.
TIMES OF ISRAEL. COPYRIGHTS.
La source de cet article se trouve sur ce site