Par Stéphane Delhommeau, responsable des services d’hébergement de Proginov

IA et ChatGPT

ChatGPT et l’IA n’ont pas fini de faire parler d’eux. Qu’ils soient vus comme une révolution technologique ou bien des destructeurs de civilisation selon les dires d’Elon Musk, leur utilisation pose des questions éthiques, politiques et de sécurité. Jusqu’où l’IA peut-elle nous aider ? En quoi peut-elle nous entraver ?

Des opportunités fantastiques

Un ordinateur capable de réussir brillamment le concours pour devenir avocat sans l’aide d’aucun être humain. Une machine accessible gratuitement, qui raisonne aussi bien qu’un professeur, diagnostique vos maladies mieux qu’un docteur, peut rédiger des courriers, des rapports, des devoirs ou des annonces commerciales à votre place… Ce n’est plus de la science-fiction, depuis que ChatGPT a été mis en ligne il y a quelques mois.

« Ça sera la plus grande technologie que l’humanité n’a jamais développée. C’est comme si nous avions un professeur dans notre poche, personnalisé, qui aide à apprendre et à faire tout ce qu’on lui demande. »

Sam Altam, Président d’Open AI en mars 2023 au micro d’ABC News

Depuis la sortie en mars dernier de ChatGPT 4, l’heure a d’abord été à l’engouement médiatique pour saluer ses performances : sa capacité de raisonnement, ses aptitudes rédactionnelles, sa capacité à apprendre afin de produire ce qu’on lui demande. Il lui aura suffi de deux mois pour atteindre les 100 millions d’utilisateurs, quand Facebook avait mis plus de quatre ans pour atteindre un tel chiffre. Le succès est vertigineux, à tel point que Microsoft compte y réinvestir 10 milliards de dollars.

L’outil semble être le symbole d’un bond technologique dans le domaine de l’IA. De nombreux observateurs s’accordent d’ailleurs à dire qu’elle va permettre de grandes avancées sur le plan industriel, dans le monde de la santé, dans l’agroalimentaire, la réduction des gaz à effet de serre, etc. L’intelligence artificielle va bouleverser certains métiers, voir même, les faire disparaitre.

Des risques qui émergent

Emplois

Face à la puissance de ChatGPT, très vite, la prospective sur l’avenir des métiers actuels a fait monter l’inquiétude, et on a vu fleurir des articles comme « Est-ce que ChatGPT va mettre la France au chômage ? » ou encore « ChatGPT : voici les métiers les plus menacés d’un grand remplacement par l’IA ». Alexeï Grinbaum, Directeur de recherche & Président du Comité opérationnel pilote d’éthique du numérique du CEA déclarait à propos de cette technologie : « Comme autrefois où le smartphone a changé le monde du travail, on voit un phénomène de la même ampleur avec l’intelligence artificielle ».

Et en effet, cette technologie bouleverse d’ores et déjà de nombreuses entreprises. Le groupe de médias allemand Axel Springer évoquait d’ailleurs en mars 2023, que l’intelligence artificielle pourrait supprimer des postes au sein de leurs rédactions. Tout comme IBM, qui évoquait à travers son directeur général du Groupe, Arvind Krishna, une baisse voire un arrêt des recrutements dans secteurs fonctions administratives et des fonctions de ressources humaines. Il évoque 30 % des postes, cela représente 78 000 emplois ; IBM employant aujourd’hui 260 000 personnes.

Pour autre exemple, Undiz a récemment réalisé la première campagne publicitaire en France, avec des visuels produits par une intelligence artificielle.

Bien que la technologie soit parfaite pour bon nombre de tâches, elle n’est pas encore capable d’apporter un raisonnement humain. De plus, les métiers dit « de la main » (menuisier, cuisinier, plombier, artisan d’art, etc.) semblent intouchables. Mais surtout, certains métiers vont connaître une explosion : ceux qui concernent les interactions avec ChatGPT, on les appelle les ingénieurs prompt (pour commande en anglais). Leur métier est de réaliser des requêtes avec l’IA et créer des usages autours de toutes ces réponses. L’économiste Pierre Bentata explique par ailleurs que la compétence de l’avenir, c’est le français. Pour être un bon prompt il faut savoir parfaitement s’exprimer ; le français paraît donc être un savoir indispensable.

Désinformation et fake news

Par ailleurs, l’intelligence artificielle peut représenter un risque majeur en matière de propagation des fausses informations, appelées « fake news ». En effet, les algorithmes d’apprentissage automatique peuvent être utilisés pour créer des contenus trompeurs et convaincants qui se propagent rapidement sur les réseaux sociaux. Ces fausses informations peuvent entraîner des conséquences graves, notamment en influençant les opinions publiques et en perturbant les processus démocratiques. L’automatisation de la production de ces contenus peut également rendre difficile leur détection et leur suppression, ce qui complique la lutte contre les fakes news. Il est donc important de mettre en place des mécanismes de régulation et de vérification des informations, ainsi que de sensibiliser les utilisateurs aux risques de la désinformation en ligne.

Pour illustrer la capacité de l’intelligence artificielle à générer du contenu saisissant de réalisme, outre les nombreuses copies des étudiants, voici quelques exemples notables :

Les fausses photos de l’arrestation de Donald Trump générées par Midjourney

Les deepfake (fake news vidéo) de Tom Cruise
https://www.youtube.com/watch?v=iyiOVUbsPcM

Une fausse collaboration musicale entre Drake & The Weeknd
https://www.youtube.com/watch?v=1MZsiUb4HcA

Les systèmes d’IA peuvent ainsi être entraînés pour diffuser des fausses nouvelles, des théories du complot, des opinions extrémistes ou des discours de haine, en utilisant des algorithmes sophistiqués qui ciblent spécifiquement les publics vulnérables. Les réseaux sociaux et les plateformes en ligne sont souvent utilisés pour diffuser ces contenus, car ils permettent une diffusion rapide et une portée massive.

Le risque de la désinformation est important car elle peut avoir un impact négatif sur les individus, les communautés et la société en général. Elle peut entraîner la propagation de la peur, de la méfiance, de la division et de la polarisation, ainsi que la perturbation des processus démocratiques. Elle peut également entraîner des conséquences économiques, en influençant les décisions d’investissement et les comportements des consommateurs.

Et en ce qui concerne le détournement d’une technologie dans le but de tromper les individus, la cybercriminalité n’est pas en reste.

Cybercriminalité

Si l’on s’amuse de la capacité de ces intelligences artificielles à écrire du texte, à composer des chansons ou d’autres prouesses ludiques ; si l’on s’inquiète de l’outil de triche que peuvent représenter ces intelligences dans le milieu scolaire ou universitaire ; elles sont aussi capables d’éditer du code informatique, de reproduire la voix, d’écrire de faux e-mails (phishing ou hameçonnage), principal mode d’attaque informatique aujourd’hui.

Sam Altam, le PDG de OpenIA alertait lui-même avec ces propos : « Nous devons être prudents. Une chose me préoccupe particulièrement est que ces modèles pourraient être utilisés pour la désinformation à grande échelle. Je crains que ces systèmes, maintenant qu’ils s’améliorent en matière de codage, pourraient être utilisés pour des cyberattaques offensives. Et nous essayons d’en parler. Je pense que la société a besoin de temps pour s’adapter. »

Voici également d’autres propos, recueillis sur le site d’Usbek&Rica à ce sujet : « Les cybercriminels utilisent ChatGPT pour améliorer – et parfois créer de toutes pièces – des logiciels malveillants. Le centre de recherche Check Point Research (CPR) a repéré de nombreux messages allant dans ce sens sur des forums de piratage clandestins. « Ces dernières semaines, nous voyons des preuves que des pirates commencent à l’utiliser pour écrire des codes malveillants, a commenté Sergey Shykevich, chef du groupe Threat Intelligence chez Check Point, lors d’une interview accordée au média spécialiste Techradar en janvier. Les cybercriminels s’intéressent de plus en plus à ChatGPT, car la technologie de l’IA qui le sous-tend peut rendre un pirate plus rentable ».

Un fil de discussion intitulé « ChatGPT – Benefits of Malware » est ainsi apparu le 29 décembre sur un forum de piratage clandestin très fréquenté. Des internautes y montrent comment ils se servent du chatbot pour développer des techniques de logiciels malveillants. »

Souveraineté

Les enjeux de souveraineté liés à l’intelligence artificielle sont importants, car les pays qui maîtrisent cette technologie peuvent bénéficier d’avantages économiques, militaires et politiques significatifs. La course à l’IA est devenue un enjeu stratégique mondial, et les investissements massifs dans la recherche et le développement sont devenus une priorité pour de nombreux gouvernements et entreprises.

Cependant, la question de la souveraineté soulève également des préoccupations en matière de sécurité, de confidentialité et d’éthique. Gardons à l’esprit qu’aucune conversation avec ChatGPT n’est confidentielle. Les technologies d’IA peuvent ainsi être utilisées pour collecter et analyser des données sensibles, ce qui soulève des questions sur la protection des droits de l’homme, de la vie privée et de la sécurité nationale. De plus, la dépendance à l’égard de cette technologie peut poser des risques en termes de cybersécurité et de fiabilité des systèmes.

Gabriel Attal, Ministre chargé des Comptes publics déclarait au micro de C à Vous le 22 mars 20237 : « On y travaille au niveau européen, pour fixer un cadre éthique mais il y a aussi en enjeu de souveraineté […] on a aussi un enjeu de soutien aux pépites, aux startuppers, aux entreprises qui voudraient développer des solutions en Europe. »

La France possède pourtant bel et bien son ChatGPT tricolore, un super calculateur appelé « Bloom ». Cet équivalent français est néanmoins réservé aux scientifiques et permet d’exécuter 36,8 pétaflops (soit 36,8 millions de milliards) d’opérations par seconde. Son coût de 25 millions d’euros, bien qu’élevé reste pourtant bien loin des milliards déployé de l’autre côté de l’Atlantique.

Il est important pour les gouvernements de développer des stratégies claires en matière d’IA, en prenant en compte les dimensions économiques, politiques, éthiques et de sécurité. La coopération internationale est également cruciale pour assurer une utilisation responsable et éthique de l’IA, tout en garantissant la protection des droits fondamentaux et des intérêts nationaux. La CNIL italienne a été la première à interdire ChatGPT au motif entre autres du non-respect des données personnelles des utilisateurs au mois d’avril 2023 ; interdiction qui a été levée suite aux modifications apportées par OpenAI.

Quelle gouvernance ?

L’IA offre des opportunités pour améliorer la qualité de vie des individus et des communautés, en permettant des avancées dans de nombreux domaines, c’est certain. D’un autre côté, l’IA soulève des préoccupations en matière d’emploi, de discrimination, d’inégalités, d’autonomie ou encore de contrôle.
Pour surmonter ces défis, il est essentiel de mettre en place des cadres réglementaires et éthiques qui garantissent qu’elle soit utilisée de manière responsable et dans l’intérêt de la société dans son ensemble. Les décideurs politiques, les entreprises et la société civile doivent travailler main dans la main pour développer des stratégies qui promeuvent la transparence, la responsabilité, la protection de la vie privée et des droits de l’homme.

Geoffrey Hinton, est l’un des parrains de l’intelligence artificielle. Il a annoncé quitter ses fonctions chez Google le 3 mai 20238, pour pouvoir parler librement de cette technologie sur laquelle il a travaillé depuis 2015 mais aussi pour pouvoir alerter sur ses dangers. « Il est temps de s’inquiéter […] Je ne vois pas comment on peut empêcher des personnes mal intentionnées de s’emparer de cet outil pour de mauvaises choses », affirme le chercheur, victime du syndrome de Frankenstein.

Pour bien comprendre la technologie sur laquelle il a travaillé de nombreuses années, il explique dans son interview : « En fait, la différence entre nous et l’IA, c’est la vitesse de transmission. Les IA partagent tout instantanément. C’est comme si, dans un groupe de 10 000 personnes, dès qu’un individu apprenait quelque chose, les 10 000 autres l’apprenaient aussi, instantanément et automatiquement […] La question, c’est de savoir quand ces technologies vont nous dépasser en termes de finesse du raisonnement, j’ai pensé qu’on avait le temps, que ce serait pour dans 30 ou 50 ans, mais je n’y crois plus ».

Si l’intelligence artificielle bénéficie actuellement d’un aspect branché, à la mode, le chercheur canadien n’est pas la seule personnalité qui s’inquiète de la montée en puissance de l’IA. Fin mars, plus d’un millier de personnes dont plusieurs centaines d’expert de la Tech (dont Steve Wozniak) signaient une lettre ouverte pour une suspension des recherches sur l’intelligence artificielle d’au moins six mois et la mise en place d’un système de sécurité pour l’utilisation de cette technologie. Comme ces signataires, Geoffrey Hinton estime lui aussi que les travaux autour de l’IA doivent être mis en pause. Il avoue même regretter ses propres recherches.

Tout comme dans la série « Invisibles – Les travailleurs du clic » d’Henri Poulain, il ne faut pas oublier que derrière toutes ces applications et intelligences dites artificielles, se cache en réalité une partie bien plus sombre, employant des milliers de femmes et d’hommes qui travaillent chaque jour à les faire fonctionner. Antonio Casili, auteur du livre « En attendant les robots », explore les implications sociales, économiques et politiques de l’automatisation croissante de la société. Il examine comment les technologies numériques, telle que l’IA, change la nature du travail, la relation entre les travailleurs et les employeurs, et la façon dont nous vivons et interagissons ensemble. Son ouvrage offre une analyse perspicace et nuancée de la façon dont les technologies numériques affectent notre vie quotidienne et notre avenir collectif.

Quelle que soit l’opinion de chacun à ce sujet, l’IA va exercer des influences indéniables sur la décennie à venir. Tout comme les Trois lois de la robotique, formulées en 1942 par les écrivains de science-fiction Isaac Asimov et John W. Campbell, un travail mondial et collectif est primordial pour encadrer cette technologie. En ce qui concerne l’avenir de ChatGPT, quoi de mieux que de lui poser la question ? Voici sa réponse :

« En tant qu’intelligence artificielle, je n’ai pas de désirs ou d’ambitions personnelles, car je suis programmée pour répondre aux demandes et aux questions des utilisateurs de manière impartiale et objective. Mon objectif est de continuer à apprendre et à m’améliorer pour fournir des réponses précises et utiles à mes utilisateurs, tout en respectant les normes éthiques et en garantissant la confidentialité et la sécurité des données. Mon avenir dépendra donc en grande partie de l’évolution de la technologie et des besoins de la société. »

ChatGPT

À bon entendeur.