« Partout où il y a des logiciels, il y a de l’intelligence artificielle »

Depuis un an, l’intelligence artificielle alimente à tort ou à raison tous les fantasmes et toutes les craintes. Thomas Solignac, entrepreneur et conférencier spécialiste des enjeux économiques et sociaux de l’IA, nous aide à y voir plus clair sur cette petite révolution. Entretien.

Temps de lecture : 7 min

à propos du contributeur

chut
Chut! Magazine

Trimestriel papier et en ligne qui explore l'impact du numérique sur nos vies.

Qui est Thomas Solignac ?

Après des études à l’Ecole pour l’informatique et les nouvelles technologies (EPITECH), il cofonde Golem.ai, une société qui utilise l’intelligence artificielle pour analyser et exploiter les données langagières produites dans les entreprises. Il est également cofondateur de Kayro, une entreprise de conseil sur l’IA.

Interview de Thomas Solignac sur l'IA

L’intelligence artificielle est omniprésente dans les discussions, le dictionnaire anglo-saxon Collins l’a même élue mot de l’année 2023. Quelle place l’IA occupe-t-elle réellement dans nos vies ?

T. S. : Elle est omniprésente depuis longtemps mais sa sémantique se déplace car le terme n’est pas bien délimité. Dans le débat public, l’IA renvoie à une sorte d’innovation mystique et fascinante qui ne fonctionne pas encore très bien. En général, dès qu’une innovation a fait ses preuves, on arrête de l’appeler intelligence artificielle. Par ailleurs, pour le grand public, l’IA a un côté anthropomorphique. Les œuvres de science-fiction ont toujours eu tendance à la représenter sous la forme d’un humain artificiel, comme Terminator. Mais, en réalité, l’IA ce sont des lignes de code qui s’exécutent aussi simplement qu’on exécute une recette de cuisine en ajoutant différents ingrédients. Partout où il y a des logiciels complexes il y a de l’IA : dans les GPS, les téléphones, les recommandations publicitaires, etc.

Les progrès fulgurants de ChatGPT ont poussé certains, comme Elon Musk, à réclamer une pause immédiate des projets autour de l’intelligence artificielle. Pourquoi voient-ils dans l’IA une « menace » pour l’humanité ?

T. S. : Une première analyse consisterait à dire que c’est une posture un peu hypocrite : ces personnes travaillent souvent sur des systèmes concurrents à Chat GPT. Il y aussi chez certains d’entre eux la peur de la Singularité, un concept transhumaniste selon lequel l’IA échapperait à notre contrôle et deviendrait à un moment plus consciente et intelligente que les humains. Selon eux, quelqu’un qui se saisirait de ce moment où l’IA deviendrait « généraliste »* pourrait faire de gros dégâts s’il était animé de mauvaises intentions. Mais pour que la Singularité advienne, il faudrait déjà que l’IA soit capable de réflexivité, c’est-à-dire de réécrire elle-même son propre code pour se faire évoluer. On parle beaucoup aujourd’hui d’apprentissage profond (« deep learning ») mais il ne faut pas se leurrer : ça reste de la statistique. Comme Chat GPT fait des calculs à très grandes échelles, avec beaucoup de données, on peut parler d’imitation d’intelligence. Mais il n’y a pas une grande différence entre ce que fait Chat GPT et le fait de faire une somme de notes pour obtenir une moyenne.

Quels sont les enjeux techniques de l’IA ?

T. S. : Pour le comprendre, il faut distinguer les deux courants de recherche autour de l’intelligence artificielle : le courant symbolique et le connexionnisme. Le premier est très logique, il tient de la démarche scientifique. On l’utilise notamment pour modéliser des processus métiers, par exemple pour gérer les différentes procédures de sécurité dans les centrales nucléaires ou dans les avions. Comme il fonctionne étape par étape, il est transparent. L’IA symbolique est toutefois limitée par le fait qu’elle ne parvient pas à modéliser suffisamment vite des situations complexes comme l’utilisation du langage. La deuxième famille d’IA, le connexionnisme, est principalement représentée par la branche du machine learning, qui est elle-même principalement représentée par le deep learning, le modèle algorithmique utilisé par Chat GPT. Son principe est de montrer à l’IA d’énormes bases de données et de la laisser y repérer des schémas. Elle en tire des prédictions sur la possibilité qu’un schéma advienne en fonction d’une situation donnée. Aujourd’hui, les IA développées relèvent essentiellement du deep learning.

Illustration par Claire Korber

Dans quelle mesure cela va-t-il impacter le travail ?

T. S. : L’absorption sociale et économique des nouvelles technologies est beaucoup plus lente que celle de l’innovation technologique. L’apparition de Chat GPT – ou d’autres logiciels utilisant de l’IA – va provoquer des transformations économiques qui sont à prendre en compte. La première est la reformation continue tout au long de la vie. De plus en plus, le sens des métiers ne va pas être infini : l’idée selon laquelle on apprend son métier une bonne fois pour toute pendant ses études n’existera plus. La deuxième est qu’il se peut que le besoin de main d’œuvre ne cesse de diminuer (Selon une étude l’OCDE publiée en 2023, « dans les secteurs ayant adopté l’IA, 20% des salariés du secteur financier et 15 % de ceux de l’industrie manufacturière affirment connaître une personne qui a perdu son emploi à cause de l’IA », ndlr). Certaines choses qui relèvent aujourd’hui du travail seront probablement reléguées demain au champ des hobbies, notamment les tâches qui relèvent de l’exécution, parce qu’elles n’auront plus de sens industriellement ou économiquement. Dans les prochaines décennies, tout cela va nous amener à repenser la place de l’individu dans le monde du travail : qu’est-ce qu’un travailleur ? Qu’est-ce que l’État garantit ? Faut-il instaurer un revenu universel ? etc.

Comment rendre l’IA plus éthique ?

T. S. : Une grosse partie des recommandations sont écrites pour le deep learning. Il y a d’abord un sujet autour de la surveillance des données qu’on donne à l’IA. Comme on est sur des systèmes qui prennent des décisions en fonction de données, ils ont tendance à reproduire les biais associés à ces données. Amazon, par exemple, a créé sa propre IA pour recruter de nouveaux salariés et s’est retrouvée avec un algorithme sexiste. Il faut donc que les données collectées soient représentatives de la diversité des populations. D’où deux autres préconisations qui reviennent souvent : garder un humain pour superviser ces systèmes et rendre les algorithmes plus transparents. Enfin, les enjeux de cybersécurité (piratage des objets connectés) et de réduction de la consommation énergétique de l’intelligence artificielle sont au centre des préoccupations des acteurs du secteur.

Glossaire du numérique

Un algorithme est une séquence d'instructions ou de règles définies de manière précise, conçue pour résoudre un problème ou effectuer une tâche spécifique. Les algorithmes sont utilisés dans la programmation informatique pour automatiser des processus.

Les biais algorithmiques sont des défauts dans le fonctionnement des algorithmes qui tendent à traiter différemment et de manière incohérente, voire injuste, les situations ou les individus. L’origine de ces défauts peut être multiple : les données d’entraînement de l’algorithme peuvent être elles-mêmes biaisées, les critères retenus pour développer un algorithme peuvent refléter les préjugés (racistes, sexistes, etc.) de leur concepteur.

L'intelligence artificielle générative se réfère à des systèmes informatiques capables de créer de nouveaux contenus, tels que des textes, images, ou sons, de manière autonome. Ces systèmes produisent des résultats qui semblent provenir d'une créativité ou d'une compréhension similaire à celle humaine. On les appelle « génératifs » car ils s’appuient sur des modèles statistiques conçus pour générer de nouvelles données qui ressemblent à celles d'un ensemble d'apprentissage défini, par exemple l’ensemble des données disponibles sur le Web. Cette méthode d’apprentissage s’appelle l’apprentissage profond (deep learning en anglais).

L’intelligence artificielle généraliste se réfère à un niveau d'intelligence artificielle qui équivaudrait à la capacité intellectuelle humaine à comprendre, apprendre, et effectuer n'importe quelle tâche cognitive. Ce concept n’est encore que théorique, mais le débat éthique qui entoure les conséquences d’un tel système divise d’ores et déjà la communauté scientifique.

Vous êtes sociétaire ?

La Macif vous informe sur les risques liés à la cybercriminalité.

Article suivant