
Sur son blog personnel, le PDG d'OpenAI, Sam Altman, a déclaré qu'il croit qu'OpenAI «sait comment construire [l'intelligence artificielle générale]» telle que l'entreprise l'a traditionnellement comprise, et commence à tourner son attention vers la «superintelligence».
«Nous adorons nos produits actuels, mais nous sommes là pour le futur glorieux», a écrit Altman dans son message. «Les outils superintelligents pourraient accélérer massivement la découverte scientifique et l'innovation bien au-delà de ce que nous sommes capables de faire seuls, et à leur tour augmenter massivement l'abondance et la prospérité.»
Altman a précédemment déclaré que la superintelligence pourrait être «quelques milliers de jours» à venir, et que son arrivée serait «plus intense que ce que les gens pensent».
L'IGA, ou intelligence artificielle générale, est un terme nébuleux, mais OpenAI a sa propre définition : «systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement valorisées». Lorsqu'OpenAI atteindra cet objectif, Microsoft perdra l'accès à sa technologie, selon un accord entre les deux entreprises.
Ainsi, à quelle définition Altman pourrait-il faire référence ? Il n'a pas précisé, mais la première semble la plus probable. Altman a écrit qu'il pensait que les agents IA - des systèmes IA capables d'accomplir certaines tâches de manière autonome - pourraient «rejoindre la main-d'œuvre», pour ainsi dire, et «changer matériellement la production des entreprises» cette année.
«Nous pensons toujours que mettre de grands outils entre les mains des gens de manière itérative conduit à des résultats formidables et largement distribués», a-t-il écrit.
C'est possible, mais il est également vrai que la technologie IA actuelle est significativement limitée. Elle hallucine, elle fait des erreurs évidentes pour tout humain, et elle peut être très coûteuse.
Altman semble confiant que tout cela peut être surmonté - et rapidement. Néanmoins, si quelque chose que nous avons appris sur l'IA au cours des dernières années, c'est que les échéances peuvent changer.
«Nous sommes assez confiants que dans les prochaines années, tout le monde verra ce que nous voyons, et que la nécessité d'agir avec beaucoup de prudence, tout en maximisant les avantages et l'autonomisation largement, est si important», a écrit Altman. «Étant donné les possibilités de notre travail, OpenAI ne peut pas être une entreprise normale. Quelle chance et quelle humilité de pouvoir jouer un rôle dans ce travail.»
On pourrait espérer qu'alors qu'OpenAI annonce son recentrage sur ce qu'elle considère être la superintelligence, l'entreprise consacrera des ressources suffisantes pour garantir que les systèmes superintelligents se comportent en toute sécurité.
OpenAI a écrit à plusieurs reprises sur la réussite de la transition vers un monde avec une superintelligence qui n'est «de loin pas garantie» et qu'elle n'a pas toutes les réponses. «[N]ous n'avons pas de solution pour diriger ou contrôler une IA potentiellement superintelligente, et l'empêcher de devenir incontrôlable», a écrit l'entreprise dans un article de blog daté de juillet 2023. «[L]es humains ne pourront pas superviser de manière fiable les systèmes IA beaucoup plus intelligents que nous, donc nos techniques d'alignement actuelles ne s'appliqueront pas à la superintelligence.»
Cependant, depuis cet article, OpenAI a dissous des équipes axées sur la sécurité de l'IA, y compris la sécurité des systèmes superintelligents, et a vu plusieurs chercheurs influents axés sur la sécurité partir. Plusieurs de ces employés ont cité les ambitions commerciales croissantes d'OpenAI comme raison de leur départ. L'entreprise est actuellement en train de restructurer son organisation pour la rendre plus attrayante pour les investisseurs extérieurs.
Interrogé lors d'une récente interview sur les critiques qui disent qu'OpenAI ne se concentre pas suffisamment sur la sécurité, Altman a répondu : «Je mettrais en avant notre bilan.»