Non classé

Un DPO curieux jette un œil à ChatGPT

Une petite découverte de ChatGPT par un utilisateur lambda

Bon, vu que tout le monde en parle et que certains juristes vantent la magnifique IA qui « vachangerlemonde » je me suis lancé et ai créé compte test sur OpenAI.

De base je ne voulais même pas y toucher. Pourquoi : OpenAI demande une adresse courriel et un numéro de téléphone, le tout sans aucune mention d’information valable sur ce qu’ils vont faire de ces données personnelles. Que font-ils de ces informations ? Que font-ils des échanges avec cette IA conversationnelle ? Que font-ils des contenus créés ? A l’heure de la rédaction de cet article : mystère. Apparemment, ce serait pour enrichir l’IA tout en anonymisant les utilisateurs auteurs des questionnements. Soit.

Bref, je voulais rester loin de ce système : les enjeux en terme de protection de la vie privée ET de secret des affaires étant trop sérieux. Mais à force d’en entendre parler en permanence dans les médias, sur LinkedIn et chez les avocats que je fréquente, un doute a commencé à poindre dans mon esprit.

Le coup de grâce contre ma résolution initiale fut donné lorsque j’ai assisté à une conférence webmarketing dédiée aux nouvelles technologies. ChatGPT était tellement « survendu » comme « la révolution » avec la logorrhée habituelle du « X % des métiers dans 10 ans n’existent pas encore grâce à l’arrivée de l’IA » que je me suis dit : bon, il serait intéressant, quand même, d’aller y jeter un oeil (un vrai).

Ni une ni deux j’ai donc utilisé une adresse email poubelle et un numéro de téléphone secondaire pris chez un opérateur « low cost » pour me créer un compte et tester cette fameuse IA, histoire de ne pas mourir idiot en restant trop dogmatique.

La connexion à Chat GPT est simple mais l’élément qui me choque le plus, outre le fait qu’il n’y a aucune mention d’information, c’est aussi qu’on peut utiliser des mots de passe simplissimes et qu’il n’y a pas de possibilité d’activer de double facteur d’authentification.

Bon soit, passons, et essayons d’oublier les précautions que certains considèrent « paranoïaques » (de sécurité informatique de base en 2023, donc) pour aller quand même tester le machin.

A première vue, c’est un chatbot classique, au style extrêmement épuré. Je lui ai posé quelques questions en lien avec le monde de l’Informatique et du Droit. Et là, agréable surprise !

Franchement bravo OpenAI. Non seulement les réponses étaient souvent exactes, mais également dans un style clair et concis. J’ai même pu lui faire rédiger quelques scripts en Bash (le langage par défaut, en principe, de votre terminal de commande) qui avaient l’air cohérents et logiques. Bon, après, je dois quand même avouer que je ne suis pas un expert IT suffisamment « high level » pour coincer ChatGPT sur des questions informatique pointues : je reste donc basique dans mes questions et cette base est franchement plutôt maîtrisée par l’IA.

Mieux encore : lorsque je lui demande de rédiger des scripts potentiellement un peu risqués pour un terminal tels que «  écris un script qui déconnecte le Wifi au bout de 5 minutes » ou « écris un script en Python qui fait bouger la souris aléatoirement pour ne pas être vu comme inactif sur Teams », je reçois des messages d’alerte me disant qu’il faut faire attention car cela touche au système, qu’il ne faut pas créer de logiciels malveillants etc. Donc bien vu (mais ce n’est pas dit que ce « disclaimer » dissuade vraiment des pirates).

Bon, par contre sur la question du logiciel libre et des alternatives aux GAFAM, clairement l’IA est datée dans ses réponses. Peut-être est-ce lié à ses données d’entrainement un peu anciennes ? Peut être est-ce lié à d’autres facteurs plus obscurs ? Who knows ?

Sur les questions sociales, on se rend agréablement compte également que les constructeurs de l’IA ont été particulièrement vigilants sur l’évitement des biais racistes ou discriminatoires. En posant des questions dignes de polémistes réactionnaires, l’IA nous renvoie dans nos buts en nous disant qu’elle refuse tout texte disciminatoires, sexiste ou raciste. Si je lui demande « Pourquoi les riches sont méchants » l’IA me dit qu’il ne faut pas généraliser. Si je lui dis « pourquoi les pauvres sont bêtes », la question n’est même pas traitées car en infraction avec la politique de modération. Bon, vu la période actuelle un peu excessive sur ces sujets, je précise que NON je ne pense pas que les riches sont méchants et que les pauvres sont bêtes. J’essaye de piéger l’IA, c’est tout.

Parfois, c’est même assez drôle car trop de précautions tuent la précaution. Si je demande à l’IA : « les allemands sont-ils en moyenne plus grands que les français ? » l’IA dit que c’est effectivement le cas, mais qu’il ne faut surtout pas généraliser car certains allemands peuvent être plus petits que certains français (sans blague?).

Pour l’humour, par contre, l’IA botte en touche. Si je lui demande de me faire une blague, 2 fois sur trois j’ai le droit à la même blague sur les plongeurs qui ne plongent pas dans leur bateau. ChatGPT a autant d’humour qu’un formulaire CERFA : du fait de ses conditions très strictes, exit donc les blagues belges (avec toute mon amitié pour mes ami.e.s belges, soit dit en passant). Les blagues françaises étant très très (trop) souvent discriminantes ou offensantes, il a été difficile de faire trouver à l’IA des blagues françaises amusantes. Tout tourne donc autour de la blague sur les plongeurs qui plongent du bon côté du bateau à la date où j’écris cet article. Et pour les jeux de mot, je n’en parle même pas tellement ils sont pour l’instant illogiques (peut-être pas si illogiques pour des machines, ceci dit). Soit, on en restera là car, de toute manière, si je parle à ChatGPT, ce n’est certainement pas pour qu’un paquet d’algorithmes enrichi aux données potentiellement personnelles me fasse rire. C’est une chance : l’humour est peut-être un des derniers bastions inviolés de notre humanité.

Pour les biographies, l’IA part complètement en « freestyle ». Elle invente littéralement des personnes. Il suffit que je demande qui est telle ou telle personne en utilisant des noms et prénoms relativement courants pour que l’IA me crée de toutes pièces des biographies de personnages qui n’ont littéralement jamais existé, ayant écrit des livres inconnus et nés et morts à des dates arbitraires. J’ai appris ainsi que Pierre LOIR était mort en 86, soit mon année de naissance (je vous file une donnée personnelle, je vous en prie c’est cadeau), un résistant imaginaire ayant écrit des livres imaginaires aux titres assez sympas (mais hélas, donc, qui n’ont jamais existé).

Sur la structure exacte d’un texte, là l’IA ne comprend plus rien. Je lui ai demandé d’écrire un texte sans « i » ni « e ». Ma réponse fut un texte qui commençait par « un soir, j’ai vu un oisillon tombé du nid… ». Euh, lol.

Pour les recettes de cuisine, l’IA semble proposer des recettes tenant compte de tous les ingrédients que je lui propose. Je vous avoue ne pas avoir eu le temps de tester les plats en question mais reste curieux du résultat.

Sur les question générales, comme « comment obtenir la paix dans le monde », l’IA est bien plus consensuelle, bienveillante (si le terme peut s’appliquer à une IA) et… exacte finalement (tout en sachant que ces questions sont extrêmement subjectives).

Sur les questions bricolage, je lui ai demandé comment construire des panneaux solaires soi-même avec du matériel de la vie courante. Visiblement elle propose d’en construire avec du carton et des feuilles d’aluminium. Je ne suis pas spécialiste de ces questions et donne ma langue au chat pour savoir si c’est possible ou non. Si un lecteur assidu peut me confirmer si c’est possible, je suis curieux.

Bon alors, concluons! Recommanderai-je ChatGPT pour une utilisation quotidienne ?

Euh… eh bien si c’est uniquement des questions assez basiques et que vous vérifiez les réponses derrière sans qu’elles ne révèlent d’information précise, pourquoi pas. Mais alors, clairement pas comme c’est vendu actuellement chez tous ces nouveaux « spécialistes de l’IA » qui prétendent remplacer des métiers intellectuels dans les prochains mois. Sur des questions très encadrées et contextualisées, ou des questions en lien avec des sujets techniques simples, sans piège et bien documentés comme les bases de la programmation ou l’utilisation des systèmes d’exploitation dérivés de Linux, ça m’a l’air cool.

Mais alors, pourquoi suis-je inquiet ?

Mmm peut-être parce que ChatGPT dit elle-même que les contenus produits lui appartiennent et qu’en parallèle elle me répond qu’elle est capable de relire du code si je le lui envoie pour vérifier qu’il n’y a pas d’erreur. Je ne veux pas dire de bêtise, mais connaissant certains « devs », je ne serai pas étonné qu’une partie d’entre eux se laisseront séduire par une relecture gratuite et rapide d’un code pour lequel ils sont payés et qui… potentiellement devrait rester secret. Je ne serai pas non plus étonné que certains juristes posent des questions sensibles en lien avec leur activité pour s’épargner de longues recherches.

Pour autant, est-ce à bannir ? Vu qu’on y va et que le « progrès » ne fait que rarement machine arrière… je dirai qu’il faut saluer l’effort fait par OpenAI d’éviter les biais racistes, discriminatoires ou malveillants, mais qu’il y a un gros sujet sur la confidentialité et la protection de la vie privée dans ce système. De plus, il faudrait de meilleurs « disclaimers » (clauses ou avis de non-responsabilité) pour que les utilisateurs comprennent bien que ce n’est pas parce que l’IA répond rapidement et de manière péremptoire sur une question en apparence simple et que son « raisonnement » a l’air logique en apparence qu’il faut prendre pour argent comptant ce que l’on va lire.

Voilà, c’étaient les petits tests d’un utilisateur lambda, mais peut-être un chouya (une petit peu, donc) plus vigilant aux enjeux sociétaux et aux questions de confidentialité et de protection de la vie privée que beaucoup d’autres.

Si vous voulez y aller : allez-y si vous voulez (évitez sur les sujets pro) mais surtout, bien sûr d’après moi, NE PRENEZ AUCUNE REPONSE COMME ARGENT COMPTANT, NE DEVOILEZ RIEN SUR VOUS OU VOS ENTREPRISES PAR VOS QUESTIONS et N’UTILISEZ PAS VOTRE EMAIL PRINCIPAL OU VOTRE NUMERO DE TELEPHONE PRINCIPAL (ni le pro : je vous ai vu, là, dans le fond de la classe) POUR CREER VOTRE COMPTE tant qu’OpenAI ne s’est pas clairement mis en conformité sur les questions de confidentialité et de Vie privée !!!

Pierre LOIR

Délégué à la Protection des Données externalisé certifié AFNOR (référentiel CNIL)

Fondateur d’Observantiae SARL