
Dans le nouveau livre de Reid Hoffman, Superagency: Qu'est-ce qui pourrait bien se passer avec notre avenir en matière d'IA, le co-fondateur de LinkedIn soutient que l'IA peut étendre l'agence humaine - nous donnant plus de connaissances, de meilleurs emplois et des vies améliorées - plutôt que de la réduire.
Cela ne signifie pas qu'il ignore les inconvénients potentiels de la technologie. En fait, Hoffman (qui a écrit le livre avec Greg Beato) décrit sa perspective sur l'IA et la technologie en général comme axée sur la prise de "risques intelligents" plutôt que sur un optimisme aveugle.
« En général, tout le monde se concentre beaucoup trop sur ce qui pourrait mal se passer, et pas assez sur ce qui pourrait bien se passer », m'a-t-il dit.
Et bien qu'il soutienne la "régulation intelligente", il a fait valoir qu'un processus de déploiement itératif qui met les outils d'IA entre les mains de tout le monde et répond ensuite à leurs retours d'information est encore plus important pour garantir des résultats positifs.
« Une partie de la raison pour laquelle les voitures peuvent aller plus vite aujourd'hui qu'à leurs débuts, c'est parce que... nous avons trouvé un tas d'innovations différentes autour des freins, des airbags, des pare-chocs et des ceintures de sécurité », a déclaré Hoffman. « L'innovation n'est pas seulement dangereuse, elle conduit en réalité à la sécurité. »
Dans notre conversation sur son livre, nous avons également discuté des avantages que Hoffman (qui est également un ancien membre du conseil d'administration d'OpenAI, actuel membre du conseil d'administration de Microsoft et associé chez Greylock) constate déjà de l'IA, de l'impact climatique potentiel de la technologie et de la différence entre un pessimiste de l'IA et un pessimiste de l'IA.
Cet entretien a été édité pour des raisons de longueur et de clarté.
Vous aviez déjà écrit un autre livre sur l'IA, Impromptu. Avec Superagency, qu'avez-vous voulu dire que vous n'aviez pas déjà dit ?
Donc, Impromptu essayait principalement de montrer que l'IA pouvait [fournir] une amplification relativement facile de l'intelligence, et le montrait aussi bien que le disait à travers un ensemble de vecteurs. Superagency se concentre beaucoup plus sur la question de savoir comment, en réalité, notre agence humaine s'améliore grandement, non seulement par des superpouvoirs, ce qui fait évidemment partie de la question, mais par la transformation de nos industries, de nos sociétés, à mesure que chacun d'entre nous acquiert ces superpouvoirs grâce à ces nouvelles technologies.
Le discours général sur ces questions commence toujours par un lourd pessimisme pour ensuite se transformer en - appelons cela un nouvel état élevé de l'humanité et de la société. L'IA n'est que la dernière technologie perturbatrice à cet égard. Impromptu n'abordait pas vraiment autant les préoccupations... d'arriver à un avenir plus humain.

Vous commencez par diviser les différentes perspectives sur l'IA en ces catégories - les optimistes, les pessimistes, les enthousiastes, les fleuristes. Nous pouvons creuser chaque catégorie, mais nous commencerons par un fleuriste puisque c'est celui que vous vous classez. Qu'est-ce qu'un fleuriste, et pourquoi vous considérez-vous comme tel ?
Je pense qu'un fleuriste est intrinsèquement optimiste en matière de technologie et [croit] que la construction de technologies peut être très, très bénéfique pour nous en tant qu'individus, en tant que groupes, en tant que sociétés, en tant qu'humanité, mais que tout ce que vous pouvez construire n'est pas génial.
Donc, vous devriez naviguer avec la prise de risque, mais une prise de risque intelligente par rapport à une prise de risque aveugle, et que vous vous engagez dans un dialogue et une interaction pour diriger. C'est en partie pourquoi nous parlons beaucoup du déploiement itératif dans le livre, car l'idée est, la façon dont vous engagez cette discussion avec de nombreux êtres humains est par le biais du déploiement itératif. Vous engagez avec cela pour le diriger en disant, 'Oh, s'il a cette forme, c'est beaucoup, beaucoup mieux pour tout le monde. Et cela rend ces mauvais cas plus limités, à la fois dans leur prévalence, mais aussi dans l'impact qu'ils peuvent avoir.
Et quand vous parlez de direction, il y a la réglementation, dont nous parlerons, mais il semble que la promesse se situe davantage dans ce type de déploiement itératif, en particulier à grande échelle. Pensez-vous que les avantages sont inhérents - c'est-à-dire, si nous mettons l'IA entre les mains du plus grand nombre de personnes, c'est intrinsèquement démocratique ? Ou pensez-vous que les produits doivent être conçus de manière à ce que les gens puissent donner leur avis ?
Eh bien, je pense que cela peut dépendre des différents produits. Mais l'une des choses que nous essayons d'illustrer dans le livre est de dire que le simple fait de pouvoir s'engager et de parler du produit - y compris de l'utiliser, de ne pas l'utiliser, de l'utiliser de certaines manières - ça, c'est en fait interagir et aider à façonner [cela], non ? Parce que les personnes qui les construisent regardent ces commentaires. Ils regardent : Avez-vous interagi ? N'avez-vous pas interagi ? Ils écoutent les gens en ligne et la presse et tout le reste, en disant, 'Hé, c'est génial.' Ou, 'Hé, ça craint vraiment.' C'est une énorme quantité de direction et de feedback de beaucoup de personnes, séparée de ce que vous obtenez de mes données qui pourraient être incluses dans l'itération, ou que je pourrais voter ou exprimer d'une manière quelconque des retours d'information directs.
Je suppose que j'essaie de creuser pour comprendre comment ces mécanismes fonctionnent car, comme vous le notez dans le livre, en particulier avec ChatGPT, il est devenu incroyablement populaire. Donc, si je dis, 'Eh bien, je n'aime pas cette chose à propos de ChatGPT' ou 'Je m'oppose à cela et je ne vais pas l'utiliser,' cela sera simplement noyé par tant de gens qui l'utilisent.
En partie, avoir des centaines de millions de personnes qui participent ne signifie pas que vous allez répondre à toutes les objections de chaque personne. Certains pourraient dire, 'Aucune voiture ne devrait aller plus vite que 20 miles par heure.' Eh bien, c'est bien que vous pensiez ça.
C'est cet agrégat de [feedback]. Et dans l'ensemble si, par exemple, vous exprimez quelque chose qui pose un défi ou une hésitation ou un changement, mais que d'autres personnes commencent aussi à l'exprimer, alors il est plus probable qu'il soit entendu et changé.
Et en partie, OpenAI est en concurrence avec Anthropic et vice versa. Ils écoutent assez attentivement non seulement ce qu'ils entendent maintenant, mais...se diriger vers des choses précieuses que les gens veulent et aussi s'écarter de choses difficiles que les gens ne veulent pas.
Nous voulons peut-être profiter de ces outils en tant que consommateurs, mais ils peuvent être potentiellement nuisibles de manière non visible pour moi en tant que consommateur. Ce processus de déploiement itératif est-il quelque chose qui va résoudre d'autres problèmes, peut-être des préoccupations sociétales, qui ne se manifestent pas pour les consommateurs individuels ?
Eh bien, une partie de la raison pour laquelle j'ai écrit un livre sur Superagency est pour que les gens aient réellement le dialogue sur les préoccupations sociétales, également. Par exemple, les gens disent, 'Eh bien, je pense que l'IA va amener les gens à renoncer à leur agence et à [renoncer] à prendre des décisions sur leur vie.' Et puis les gens vont jouer avec ChatGPT et dire, 'Eh bien, je n'ai pas cette expérience.' Et si très peu d'entre nous vivent vraiment [cette perte d'agence], c'est donc l'argument quasi contre cela, n'est-ce pas ?
Vous parlez également de la réglementation. On dirait que vous êtes ouvert à la réglementation dans certains contextes, mais vous craignez que la réglementation puisse étouffer potentiellement l'innovation. Pouvez-vous en dire plus sur ce que vous pensez qu'une réglementation bénéfique en matière d'IA pourrait ressembler ?
Donc, il y a quelques domaines, car je suis en fait positif sur la régulation intelligente. Une zone est lorsque vous avez des choses vraiment spécifiques, très importantes que vous essayez de prévenir - le terrorisme, la cybercriminalité, d'autres types de choses. Vous essayez, essentiellement, de prévenir cette chose vraiment mauvaise, mais de permettre une large gamme d'autres choses, donc vous pouvez discuter : Quels sont les choses qui ciblent suffisamment étroitement ces résultats spécifiques ?
En dehors de cela, il y a un chapitre sur [comment] l'innovation est également synonyme de sécurité, car en innovant, vous créez de nouvelles fonctionnalités de sécurité et d'alignement. Et il est important d'y arriver également, car une partie de la raison pour laquelle les voitures peuvent aller plus vite aujourd'hui qu'à leurs débuts, c'est parce que nous nous sommes dit, 'Oh, nous avons trouvé un tas d'innovations différentes autour des freins, des airbags, des pare-chocs et des ceintures de sécurité.' L'innovation n'est pas seulement dangereuse, elle conduit en fait à la sécurité.
Ce que j'encourage les gens, surtout dans un environnement réglementaire rapide et itératif, c'est d'articuler ce qui vous préoccupe spécifiquement comme quelque chose que vous pouvez mesurer, et commencer à le mesurer. Parce qu'alors, si vous commencez à voir cette mesure croître de manière forte ou alarmante, vous pourriez dire, 'D'accord, explorons cela et voyons si nous pouvons faire des choses.'
Il y a une autre distinction que vous faites, entre les pessimistes et les pessimistes - les pessimistes étant des personnes plus préoccupées par le risque existentiel de la super-intelligence, les pessimistes étant plus préoccupés par les risques à court terme liés aux emplois, au droit d'auteur, à un nombre quelconque d'autres choses. Les parties du livre que j'ai lues semblent être plus axées sur l'adresse aux critiques des pessimistes.
Je dirais que j'essaie de m'adresser au livre à deux groupes. Un groupe est celui qui est sceptique à l'IA - ce qui inclut les pessimistes - jusqu'au curieux de l'IA.
Et puis l'autre groupe est celui des technologistes et des innovateurs qui disent, 'Regardez, ce qui importe vraiment aux gens, c'est l'agence humaine. Donc, prenons cela comme une lentille de conception en termes de ce que nous construisons pour l'avenir. Et en prenant cela comme une lentille de conception, nous pouvons également aider à construire une technologie encore meilleure avec une agence améliorée.'
Quels sont quelques exemples actuels ou futurs de la manière dont l'IA pourrait étendre l'agence humaine au lieu de la réduire ?
Une partie de ce que le livre essayait de faire, une partie de Superagency, c'est que les gens ont tendance à réduire cela à, 'Quels superpouvoirs ai-je ?' Mais ils ne réalisent pas que la superagence, c'est quand beaucoup de gens ont des superpouvoirs, je bénéficie aussi de cela.
Un exemple emblématique, ce sont les voitures. Oh, je peux aller ailleurs, mais, au fait, quand les autres vont ailleurs, un médecin peut venir chez vous quand vous ne pouvez pas sortir, et faire une visite à domicile. Donc vous obtenez une superagence, collectivement, et c'est ce qui est précieux aujourd'hui.
Je pense que nous avons déjà, avec les outils d'IA d'aujourd'hui, un tas de superpouvoirs, qui peuvent inclure des capacités d'apprentissage. Je ne sais pas si vous avez déjà fait cela, mais je suis allé dire, 'Expliquez-moi la mécanique quantique à un enfant de cinq ans, à un enfant de douze ans, à un enfant de dix-huit ans.' Cela peut être utile - vous pointez la caméra vers quelque chose et vous dites, 'Qu'est-ce que c'est ?' Comme identifier un champignon ou identifier un arbre.
Mais ensuite, il y a bien sûr tout un ensemble de différentes tâches linguistiques. Lorsque j'écris Superagency, je ne suis pas un historien de la technologie, je suis un technologiste et un inventeur. Mais en recherchant et en écrivant ces choses, je dis ensuite, 'D'accord, qu'est-ce qu'un historien de la technologie dirait de ce que j'ai écrit ici ?'
Lorsque vous parlez de certains de ces exemples dans le livre, vous dites également que lorsque nous obtenons une nouvelle technologie, parfois les anciennes compétences disparaissent parce que nous n'en avons plus besoin, et nous en développons de nouvelles.
Et en éducation, cela rend peut-être ces informations accessibles à des personnes qui n'y auraient peut-être jamais eu accès autrement. D'un autre côté, vous entendez ces exemples de personnes qui ont été formées et acclimatées par ChatGPT à simplement accepter une réponse d'un chatbot, au lieu de creuser plus profondément dans différentes sources ou même de réaliser que ChatGPT pourrait se tromper.
C'est définitivement l'une des craintes. Et de quelque manière, il y avait des craintes similaires avec Google et la recherche et Wikipédia, ce n'est pas un nouveau dialogue. Et tout comme pour chacun de ces, le problème est que vous devez apprendre où vous pouvez vous fier à cela, où vous devez vérifier, quel est le niveau d'importance de la vérification croisée, et toutes ces compétences sont bonnes à acquérir.
Maintenant, en passant, à mesure que nous formons ces agents pour être de plus en plus utiles et avoir un plus grand degré de précision, vous pourriez avoir un agent qui fait une vérification croisée et qui dit, 'Hé, il y a un tas de sources qui contestent ce contenu. Cela vous intéresse-t-il ?' Ce genre de présentation de l'information renforce votre agence, car elle vous fournit un ensemble d'informations pour décider à quel point vous vous y plongez, combien vous recherchez, quel niveau de certitude vous [avez.] Ce sont tous des éléments de ce que nous obtenons lorsque nous faisons un déploiement itératif.
Dans le livre, vous parlez du fait que les gens posent souvent la question, 'Qu'est-ce qui pourrait mal se passer ?' Et vous dites, 'Eh bien, qu'est-ce qui pourrait bien se passer ? C'est la question que nous devons poser plus souvent.' Et il me semble que ces deux questions sont précieuses. Vous ne voulez pas exclure les bons résultats, mais vous voulez vous prémunir contre les mauvais résultats.
Oui, c'est une partie intégrante d'un fleuriste. Vous êtes très optimiste quant à ce qui pourrait bien se passer, mais ce n'est pas que vous n'êtes pas en dialogue avec ce qui pourrait mal se passer. Le problème est que tout le monde, en général, se concentre beaucoup trop sur ce qui pourrait mal se passer, et pas assez sur ce qui pourrait bien se passer.
Un autre problème dont vous avez parlé dans d'autres interviews est le climat, et je pense