Les imitations d’intelligence sont-elles mauvaises pour l'individu?
©Shutterstock

Le monde entier s’est pris d’un engouement sans précédent pour l’Intelligence artificielle (IA). Selon l'Élysée, les Émirats arabes unis ont annoncé qu'ils allaient construire un “data center” géant en France, un investissement de l'ordre de 30 à 50 milliards d'euros. Pour l’humanité, l’IA est un peu ce que fut l’invention du couteau pour nos lointains ancêtres. Les silex taillés leur permirent de traiter les peaux des animaux, de se vêtir et de survivre aux rigueurs du climat. Mais ils furent ensuite utilisés dans la guerre.

Mais d’abord, qu’est-ce que l’IA? Par ce sigle, on désigne un ensemble de technologies permettant à des machines ou des systèmes informatiques de simuler des capacités humaines telles que l'apprentissage, la compréhension, le raisonnement et la prise de décision.

Pour le pape François et le Vatican, l’utilisation même du mot intelligence en référence à l’IA est “trompeuse”, au regard de ce que l’intelligence humaine a d’unique dans son intentionnalité, son ouverture et ses modalités. Pour le pape, l’IA ne doit pas être considérée comme une forme d’intelligence rivale de l’homme, mais comme l’un des produits de l’intelligence humaine (Cf. Antiqua et Nova, 28 Janvier 2025).

Cela dit, cette technologie de pointe qui rend l'être humain capable de “pondre” une thèse de doctorat en un quart d’heure, repose sur des algorithmes, des modèles mathématiques et des réseaux neuronaux. L’algorithme, simplement expliqué, est une séquence d'instructions à suivre dans un ordre précis pour accomplir une tâche spécifique. D’autre part, inspirés du fonctionnement du cerveau humain, les réseaux neuronaux sont des structures informatiques qui tentent de simuler le traitement de l'information dans les neurones biologiques. Ces réseaux neuronaux sont indispensables en particulier pour résoudre des problèmes complexes dans lesquels les relations entre les données ne sont pas évidentes. 

Dans ce domaine se vérifie le principe invariable de la science moderne tel qu'il a été défini par le philosophe et homme de science Francis Bacon (XVIe-XVIIe siècle) selon lequel “on ne commande à la nature qu’en lui obéissant”.

Points forts et points faibles

Les points forts de l'IA répertoriés par les chercheurs sont les suivants:

- Automatisation des tâches répétitives: l'IA excelle dans l'automatisation de processus répétitifs et standardisés, ce qui permet d'augmenter l'efficacité et de réduire les coûts dans des secteurs comme l'industrie, les services financiers, la logistique, etc.

- Analyse et prise de décision améliorées: grâce à sa capacité de traiter d'énormes quantités de données à grande vitesse, l'IA peut détecter des tendances, prévoir et aider à la prise de décision. Cela est particulièrement utile dans des domaines comme la médecine, la finance, le marketing et la gestion des risques.

 – Assistance personnalisée: ce sont des assistants vocaux, dits encore “chat box” (comme Alexa et Siri) utilisés dans les téléphones portables et les répondeurs, programmés et adaptés à des situations standards. 

- Innovation et amélioration de la recherche: l'IA joue un rôle crucial dans l'accélération de la recherche scientifique en analysant de grandes quantités de données pour des découvertes dans des domaines tels que la biotechnologie, la physique ou l'astronomie. 

- Soutien dans des environnements dangereux: l'IA peut être utilisée dans des situations où la présence humaine est risquée, comme la gestion des catastrophes, l'exploration spatiale, la navigation aérienne, la conduite auto ou la détection de menaces de tous ordres. Ainsi, elle peut détecter si un conducteur est sur le point de s'endormir au volant.

Cependant, les dangers et risques de l'IA sont tout aussi réels: cela va de la paresse intellectuelle et la perte des compétences humaines au chômage, en passant par la surveillance policière et l’utilisation des “armes autonomes” sans contrôle humain.

Ainsi, l'automatisation par l'IA peut remplacer des emplois humains, notamment dans des secteurs comme la production industrielle, la conduite de véhicules ou les services client. Cela soulève des questions d'inégalité et de redistribution des ressources.

Par ailleurs, l'IA n'a pas d’objectifs propres. Les données traitées sont des données humaines, ce qui signifie que si les données sont biaisées (par exemple, discriminatoires ou incomplètes), cela peut conduire à des décisions injustes dans des domaines tels que le recrutement, le système judiciaire ou l'octroi de crédits.

Les systèmes d'IA peuvent en outre être la cible de cyberattaques visant à les manipuler ou à les exploiter à des fins malveillantes, créant ainsi des risques pour la sécurité nationale, les entreprises ou les individus.

Science-fiction: la révolte des robots

La perte de contrôle d’un robot ou d’une IA est la question qui alimente le plus les fantasmes des chercheurs et des auteurs de science-fiction. Les êtres humains risquent-ils de devenir esclaves des robots? La réponse est, bien entendu, non. L’IA manque de l’élément subjectif et unique de la création humaine. En termes simples, un algorithme est comme une recette de cuisine. Tout comme une recette définit les étapes à suivre pour préparer un plat, un algorithme définit les étapes à suivre pour résoudre un problème.

L’intelligence humaine peut tirer un maximum de profit de cet outil, comme le ferait une entrée d’encyclopédie pour un chercheur, mais avec une immense économie de temps. Toutefois, il est nécessaire d’insister sur un point bien précis: les systèmes d'intelligence artificielle n'ont pas de volonté propre ni de conscience. Dans de nombreux films, livres ou œuvres de science-fiction, les machines se révoltent contre leurs créateurs. C’est ce qui se produit, par exemple, dans le film “Terminator III” ou dans le film de Stanley Kubrick “2001, l'Odyssée de l'espace” avec le supercalculateur HAL 9000. Ces récits imaginent des machines ou des IA qui, au fil du temps, développent une forme de conscience et choisissent de se révolter contre les humains pour diverses raisons.

Cependant, ces scénarios relèvent de la fiction et non de la réalité technologique, sauf en cas de biais algorithmiques délibérés, auquel cas, ce n’est pas la machine qu’il faut mettre en cause, mais son concepteur et son utilisateur. L’outil se transforme en arme et en menace.

La plupart des experts en IA travaillent à éviter les risques de technologies qui échapperaient au contrôle de l’être humain en instaurant des systèmes de sécurité et des garde-fous.

Conclusion pratique, l'intelligence artificielle présente un potentiel immense pour transformer et améliorer la qualité de nos vies. Toutefois, elle comporte des risques importants qu'il est nécessaire de réguler, de surveiller et de maîtriser pour garantir qu'elle soit utilisée de manière éthique et bénéfique pour la société. Le développement d'une IA responsable, transparente et sécurisée est essentiel pour éviter ses dérives. C’est l’affaire des systèmes politiques de s’assurer qu’il en est et en sera toujours ainsi.

 

Commentaires
  • Aucun commentaire