Il aura fallu moins de trois mois à Ilya Sutskever pour rassembler un milliard de dollars. La semaine dernière, sa start-up Safe Superintelligence (SSI), officiellement lancée en juin, a annoncé cette gigantesque levée de fonds, menée sur la base d’une valorisation de 5 milliards. Des montants records pour un tour en phase d’amorçage, même pour un spécialiste de l’intelligence artificielle générative, qui s’expliquent par la réputation de son fondateur, ancien chercheur chez Google Brain et surtout ancien directeur scientifique d’OpenAI. Son objectif: développer une “super-intelligence sûre”, sans céder à des “pressions commerciales de court terme”, promet-il. En quelque sorte, il souhaite mener à bien la mission que s’était initialement fixée le concepteur de ChatGPT, désormais davantage focalisé vers la recherche de profits.
Approche prudente – Ilya Sutskever fait partie de la petite équipe à l’origine d’OpenAI. Il y incarne une approche plus prudente du développement de l’IA, souhaitant s’assurer que la technologie reste sous contrôle. Mais sa vision se heurte à celle de Sam Altman, le directeur général, qui veut, lui, avancer beaucoup plus vite. Ce conflit rampant éclate au grand jour fin 2023, quand le patron d’OpenAI est brutalement écarté, avant d’être réinstallé cinq jours plus tard. Celui-ci n’a depuis cessé d’affirmer son contrôle. Au détriment des impératifs sur la sécurité de l’IA. En mai, il a ainsi acté la dissolution, de l’équipe de “superalignement”, dirigée par Ilya Sutskever et chargée de vérifier que l’IA reste bien “alignée” avec les intérêts de l’humanité. Une décision qui a entraîné le départ du responsable… et la création de SSI.
But lucratif – Avec sa nouvelle start-up, Ilya Sutskever promet de ne pas suivre la même voie, en conservant la recherche et la sécurité au centre des préoccupations. Il assure ainsi que SSI se consacrera uniquement sur le développement d’une “super-intelligence”. Et donc qu’elle ne multipliera pas les lancements de produits pour satisfaire les intérêts financiers de ses investisseurs. Pour autant, l’ancien d’OpenAI n’a pas opté pour un statut à but non lucratif. Ni même pour celui de “public benefit corporation”, une entreprise à but lucratif qui œuvre aussi pour le bien de la société, sans obligation légale d’uniquement maximiser la création de valeur pour ses actionnaires. En outre, il est allé chercher de l’argent auprès du fonds de capital-risque Andreessen Horowitz, qui a plusieurs fois nié les dangers de l’IA.
Besoin de capitaux – Pour atteindre son objectif, SSI va avoir besoin de beaucoup plus qu’un milliard de dollars, pour attirer les meilleurs chercheurs mais surtout pour mettre la main sur l’immense puissance de calcul nécessaire à l’entraînement de son IA. Ses dirigeants ouvrent la porte à des partenariats avec Nvidia, Microsoft ou Google, offrant une partie du capital en échange de cartes graphiques ou de crédits cloud. Mais l’équation financière pourrait être difficile à tenir, car les besoins de financements vont s’accumuler en l’absence de sources de recettes liées à des produits commerciaux – comme c’est le cas, par exemple pour OpenAI, dont le chiffre d’affaires est désormais supérieur à trois milliards de dollars en rythme annuel. Et en l’absence de progrès financiers capables d’attirer de nouveaux investisseurs.
Pour aller plus loin:
– Comment la course aux profits s’est imposée dans l’intelligence artificielle
– La face cachée d’OpenAI, rattrapé par de multiples polémiques