Les I.A. fonctionnent sur des données numériques, censées représenter les connaissances du monde. Mais en réalité, toutes les connaissances, tout les savoirs du monde ne sont pas numérisés et il reste encore beaucoup de données inaccessibles autrement que par le support physique, c'est à dire livres, manuscrits, oeuvres picturales ou photographiques, registres, etc.... Mais aujourd'hui l'I.A. prend de plus en plus de place. Au point que physiquement, ce sont des datas centers qui doivent se construire partout, afin de mettre a disposition des conditions de stockages plus importants, autant pour l'I.A. que pour tout ce qui est, sera numériser. Mais a quel coût ?
Ce que l'IA ignore – et pourquoi c'est important
Article rédigé par Richard Porter via RealClearPolitics ,
L'intelligence artificielle a conquis le monde connecté , mais la réaction négative n'a pas tardé. Les progressistes déplorent les pertes d'emplois, les écologistes s'interrogent sur l'impact écologique des immenses centres de données, et les militants locaux réclament des garanties que les factures d'électricité des ménages n'exploseront pas à cause de la forte consommation de ces centres. D'autres craignent tout simplement que cette technologie ne devienne incontrôlable pour l'humain.
Ces réactions découlent, au moins en partie, de la surestimation de l'intelligence artificielle.
L'IA est fascinante, mais elle n'est ni surhumaine ni hyperintelligente. L'IA consiste simplement à traiter très rapidement d'énormes quantités de données.
L’intelligence, la connaissance, la compréhension et la sagesse sont autant de concepts différents ; la distinction entre eux éclaire la portée et les limites de l’« intelligence » humaine et électronique.
L'intelligence est la capacité de traiter l'information et de l'organiser en un cadre cohérent et utile, qui enrichit ou dégrade la connaissance selon son degré de précision. La connaissance est l'accumulation d'informations organisées en cadres ou modèles cohérents qui nous aident à comprendre . La compréhension est la prise de conscience de la signification, de l'utilité ou du sens de la connaissance accumulée.
Et la sagesse est un jugement affiné par l'expérience et la conscience que l'intelligence, la connaissance et la compréhension sont limitées, intrinsèquement imparfaites et utiles uniquement dans la mesure où elles servent un but valable.
Il y a près de 2 500 ans, l’oracle de Delphes aurait déclaré que nul n’était plus sage que Socrate . Socrate se disait stupéfait, car il était pleinement conscient de son ignorance. Mais après avoir consulté d’autres personnes reconnues pour leur savoir, comme les plus grands hommes politiques, poètes, philosophes et artisans de son temps, il comprit la sagesse delphique : ceux qui prétendaient savoir ignoraient leur propre ignorance, tandis que Socrate savait qu’il ne savait rien.
Pour cette intuition, Socrate fut mis à mort pour impiété et corruption de la jeunesse athénienne , prouvant ainsi pour toujours à la fois la folie des certitudes de ses accusateurs et la sagesse du questionnement socratique.
Il convient de le rappeler aujourd'hui, à l'aube de l'ère de l'intelligence artificielle : il est judicieux de s'interroger sur « l'intelligence » des machines, sur les « connaissances » qu'elles propagent, et sur notre compréhension de la signification et des limites de cette technologie.
Les modèles d'IA sont fascinants et utiles, bien qu'incompréhensibles pour la plupart d'entre nous, mais l'IA n'est pas infaillible. Elle n'enrichira nos connaissances et notre compréhension du monde que si les utilisateurs sont encouragés à questionner ses résultats, ses processus et ses fonctions.
L'erreur est humaine, tout comme celle des personnes qui conçoivent et programment les machines. Pourtant, on a tendance à faire davantage confiance aux machines qu'aux humains , notamment pour le traitement d'informations complexes. Par exemple, les joueurs de tennis ont plus confiance dans l'arbitrage électronique que dans l'arbitrage humain, même si cette confiance envers cette nouvelle technologie a été ébranlée par des erreurs, comme lorsque les marques de balle ne correspondent pas aux décisions électroniques.
À mesure que l'utilisation de l'IA se répand, les gens s'appuieront de plus en plus sur elle et feront confiance à ses résultats pour les tâches routinières (comme les recherches Google ), tandis que la plupart resteront plus sceptiques quant aux résultats de l'IA pour les tâches plus complexes et ne lui feront pas confiance pour gérer certaines tâches à leur place sans intervention humaine.
Il est judicieux de remettre en question les résultats de l'IA ; les erreurs sont fréquentes, même lors de recherches de routine.
Les exemples d' erreurs , d'hallucinations et de biais politiques de l'IA sont légion. Un professeur de l'école de commerce de l'Université Northwestern, que je connais, a récemment demandé conseil à ChatGPT pour évaluer différentes options d'investissement. ChatGPT lui a recommandé d'investir dans un fonds particulier et a décrit en détail ses rendements, ses risques et ses actifs. Lorsque le professeur a voulu investir dans le fonds recommandé par ChatGPT, il a découvert que celui-ci n'existait pas ; ChatGPT l'avait entièrement inventé (un phénomène communément appelé « hallucination de l'IA »).
En effet, l'IA peut même se tromper dans les tâches les plus banales : lors de mes recherches pour cet article, un résumé de l'IA de Google a attribué à Socrate des citations qui ne sont étayées par aucun document historique.
L'intelligence artificielle, comme l'intelligence humaine, est sujette à l'erreur et n'est pas toujours fiable, ce qui est normal, surtout pour une technologie émergente. L'IA est une intelligence artificielle , et non une connaissance, une compréhension ou une sagesse artificielles. L'IA est un processeur, un processeur très rapide, qui organise et synthétise l'information ; or, l'information organisée est plus facile à évaluer et à utiliser par les humains que de vastes quantités d'informations non organisées.
Bien comprise, l'IA complète, et non remplace, l'intelligence, les connaissances et la compréhension humaines ; de plus, les limites et les failles de ces modèles pourtant impressionnants nous rappellent que l'intelligence humaine a elle aussi ses limites. L'intelligence humaine organise imparfaitement les données imparfaites auxquelles elle a accès et les interprète de manière subjective, et non objective.
Nombreux sont ceux qui s'attendent à ce que les machines créées par l'homme possèdent une intelligence « supérieure » à celle de leurs créateurs humains – plus objective, plus exhaustive, plus perspicace. C'est un espoir naïf. D'une certaine manière, l'IA est « supérieure ». Elle organise plus d'informations plus rapidement que les humains. Mais qui, selon eux, l'a programmée ? Chaque modèle d'IA ne fait que reproduire des informations imparfaites, collectées, créées et saisies par des êtres humains imparfaits et subjectifs.
Que penser de tout cela ?
Premièrement, il se pourrait que les mathématiciens qui créent l'IA commettent l'erreur de former les machines à traiter l'information sur des sujets humains comme s'il s'agissait de problèmes mathématiques avec une réponse unique. Il serait peut-être plus judicieux de les entraîner à suggérer des questions à se poser plutôt que des réponses à accepter, concernant les interrogations humaines en matière de politique, d'économie, de psychologie, d'éducation des enfants, d'agronomie – bref, tout le champ des arts, des lettres et des sciences sociales.
Deuxièmement, les personnes chargées de la formation de ces machines devraient être explicites quant aux biais et aux perspectives intégrés à la manière dont l'IA organise, trie et interprète l'information . (Personnellement, je pense que les entreprises américaines spécialisées en IA devraient concevoir une IA imprégnée d'une perspective typiquement américaine .)
Troisièmement, les créateurs d'IA devraient tenir compte des risques politiques, réglementaires et juridiques liés à une surestimation de ce qu'est l'IA et de ce qu'elle peut faire . Par exemple, devraient-ils s'attendre à avoir l'obligation d'avertir les utilisateurs des limites des résultats de l'IA et/ou des clauses d'exclusion de garantie ?
Quatrièmement, les concepteurs d'IA doivent s'attacher à améliorer la qualité des données utilisées pour l'entraînement des systèmes, en sachant que de nombreuses sources de données en ligne sont délibérément trompeuses afin de servir des intérêts politiques. Il est impossible d'obtenir des informations parfaitement objectives, mais certaines informations sont plus précises et moins biaisées que d'autres ; les formateurs doivent donc faire preuve d'un meilleur discernement quant à l'utilisation des données.
La création de grands modèles de langage pour l'IA est un exploit d'ingénierie remarquable. Extrêmement utile, elle deviendra bientôt indispensable, elle n'en demeure pas moins une invention humaine. De ce fait, il est essentiel de reconnaître que l'IA n'est, en définitive, que le dernier outil, le plus performant – mais toujours imparfait – inventé et utilisé par l'Homo sapiens pour améliorer sa vie.
