lundi 16 décembre 2024

EMANCIPATION

 L'évolution de la technologie, nous rapproche de plus en plus à l'instant de l'émancipation de l'I.A.

L'IA autonome représente une menace existentielle – et elle est presque là, selon un ancien PDG de Google

Rédigé par Joseph Lord via The Epoch Times (c'est nous qui soulignons),

L’ancien PDG de Google, Eric Schmidt, a déclaré que l’intelligence artificielle (IA) autonome arrivait et qu’elle pourrait constituer une menace existentielle pour l’humanité.

Eric Schmidt, président exécutif de Google, témoigne devant la sous-commission antitrust, concurrence et droits des consommateurs de la commission judiciaire du Sénat, à Capitol Hill, à Washington, DC, le 21 septembre 2011. Chip Somodevilla/Getty Images

« Nous allons bientôt pouvoir avoir des ordinateurs fonctionnant de manière autonome, décidant ce qu'ils veulent faire », a déclaré Schmidt, qui tire depuis longtemps la sonnette d'alarme sur les dangers et les avantages que l'IA représente pour l'humanité, lors d'une apparition le 15 décembre sur « This Week » d'ABC.

« C’est un point dangereux : lorsque le système peut s’auto-améliorer, nous devons sérieusement penser à le débrancher », a déclaré Schmidt.

Schmidt est loin d’être le premier dirigeant du secteur technologique à exprimer ces préoccupations.

L’essor des produits d’IA grand public comme ChatGPT a été sans précédent au cours des deux dernières années, avec des améliorations majeures apportées au modèle basé sur le langage. D’autres modèles d’IA sont devenus de plus en plus aptes à créer des œuvres d’art visuelles, des photographies et des vidéos intégrales qui sont presque impossibles à distinguer de la réalité dans de nombreux cas.

Pour certains, cette technologie rappelle la série « Terminator », centrée sur un futur dystopique où l’IA prend le contrôle de la planète, entraînant des résultats apocalyptiques.

Malgré toutes les craintes suscitées par ChatGPT et d’autres plateformes similaires, les services d’IA grand public disponibles aujourd’hui appartiennent toujours à une catégorie que les experts qualifieraient d’« IA stupide ». Ces IA sont entraînées à partir d’un ensemble massif de données, mais manquent de conscience, de sensibilité ou de capacité à se comporter de manière autonome.

Schmidt et d’autres experts ne sont pas particulièrement inquiets à propos de ces systèmes.

Ils s’inquiètent plutôt d’une IA plus avancée, connue dans le monde de la technologie sous le nom d’« intelligence artificielle générale » (IAG), décrivant des systèmes d’IA beaucoup plus complexes qui pourraient être dotés de sensibilité et, par extension, pourraient développer des motivations conscientes indépendantes des intérêts humains et potentiellement dangereuses pour eux.

Schmidt a déclaré qu'aucun système de ce type n'existe aujourd'hui et que nous évoluons rapidement vers un nouveau type d'IA intermédiaire : un type dépourvu de la sensibilité qui définirait une IA générale intégrée, et néanmoins capable d'agir de manière autonome dans des domaines comme la recherche et l'armement.

« Je fais cela depuis 50 ans. Je n'ai jamais vu une innovation d'une telle ampleur », a déclaré Schmidt à propos de l'évolution rapide de la complexité de l'IA.

Schmidt a déclaré qu’une IA plus développée présenterait de nombreux avantages pour l’humanité, mais pourrait également avoir de « mauvaises conséquences, comme des armes et des cyberattaques ».

Le défi

Selon Schmidt, le défi est multiple.

Au fond, il a répété un sentiment commun parmi les dirigeants technologiques : si les systèmes autonomes de type AGI sont inévitables, il faudra une coopération massive entre les intérêts des entreprises et les gouvernements au niveau international pour éviter des conséquences potentiellement dévastatrices.

C'est plus facile à dire qu'à faire. L'intelligence artificielle offre aux concurrents des États-Unis, comme la Chine, la Russie et l'Iran, un avantage potentiel sur les États-Unis qu'il serait difficile d'obtenir autrement.

Au sein de l'industrie technologique également, il existe actuellement une concurrence massive entre les grandes entreprises (Google, Microsoft et d'autres) pour surpasser leurs rivaux, une situation qui soulève des risques inhérents à des protocoles de sécurité inappropriés pour faire face à une IA malveillante, a déclaré Schmidt.

« La concurrence est si féroce qu'il y a un risque qu'une des entreprises décide d'omettre les mesures de sécurité et de commercialiser ensuite quelque chose qui pourrait vraiment nuire », a déclaré M. Schmidt. De tels dommages ne deviendraient évidents qu'après coup, a-t-il ajouté.

Le défi est plus grand sur la scène internationale, où les nations adverses sont susceptibles de considérer la nouvelle technologie comme révolutionnaire dans leurs efforts pour défier l’hégémonie mondiale des États-Unis et étendre leur propre influence.

« Les Chinois sont intelligents et ils comprennent le pouvoir d’un nouveau type de renseignement pour leur puissance industrielle, leur puissance militaire et leur système de surveillance », a déclaré Schmidt.

C'est une sorte de dilemme pour les dirigeants américains sur le terrain, qui se retrouvent obligés de trouver un équilibre entre les préoccupations existentielles pour l'humanité et le risque que les États-Unis prennent du retard sur leurs adversaires, ce qui pourrait être catastrophique pour la stabilité mondiale.

Dans le pire des cas, de tels systèmes pourraient être utilisés pour fabriquer des armes biologiques et nucléaires paralysantes, notamment par des groupes terroristes comme l’EI.

Pour cette raison, a déclaré Schmidt, il est absolument crucial que les États-Unis continuent d’innover dans ce domaine et, à terme, de maintenir leur domination technologique sur la Chine et d’autres États et groupes adversaires.

Les leaders de l'industrie réclament une réglementation

La réglementation dans ce domaine reste insuffisante, a déclaré M. Schmidt. Mais il s'attend à ce que les efforts des gouvernements visant à renforcer les mesures de protection autour de cette technologie s'accélèrent considérablement dans les années à venir.

Interrogé par le présentateur George Stephanopoulos pour savoir si les gouvernements en faisaient suffisamment pour réglementer ce secteur, Schmidt a répondu : « Pas encore, mais ils le feront, car ils devront le faire. »

Malgré un certain intérêt initial pour le domaine – audiences, propositions législatives et autres initiatives – qui a émergé au cours du 118e Congrès actuel, cette session semble être en passe de se terminer sans aucune législation majeure liée à l’IA.

Le président élu Donald Trump, pour sa part, a mis en garde contre les vastes risques posés par l'IA, déclarant lors d'une apparition sur le podcast « Impaulsive » de Logan Paul qu'il s'agissait d'un « outil vraiment puissant ».

Il a également évoqué la nécessité de maintenir la compétitivité face aux adversaires.

« Cela implique des difficultés, mais nous devons être aux avant-postes », a déclaré M. Trump. « Cela va arriver, et si cela doit arriver, nous devons prendre l’avantage sur la Chine. La Chine est la principale menace. »

L'analyse de Schmidt concernant les avantages et les défis de la technologie s'aligne sur les réactions d'autres acteurs du secteur.

En juin 2024, les employés d’OpenAI et de Google ont signé une lettre mettant en garde contre les « risques graves » posés par l’IA et appelant à une plus grande surveillance gouvernementale du domaine.

Elon Musk a émis des avertissements similaires, affirmant que Google cherchait à créer un « Dieu numérique » à travers son programme d’IA DeepMind.

En août, ces inquiétudes se sont intensifiées après la découverte qu’une IA avait pris des mesures autonomes pour éviter d’être désactivée, suscitant la crainte que l’humanité perde déjà le contrôle de sa création alors que les gouvernements restent inactifs.

Aucun commentaire:

Enregistrer un commentaire