< Retour

Module 2.6

Replay & FAQ I Le webinaire et les réponses à vos questions

Veuillez trouver ci-dessous le replay du webinaire ainsi que les réponses à toutes les questions auxquelles nous n’avons pas pu répondre pendant le webinaire :

1. Quelle est la fiabilité des comparateurs d’impact écologique de l’IA ? Est-ce que l’on a comparé les chiffres donnés par les entreprises qui développent les modèles (Mistral, Google, ChatGPT) ?

Mesurer l’impact environnemental de l’IA reste complexe, tout autant que le manque de transparence sur l’origine des chiffres fournis par les fournisseurs d’IA. L’avantage de Compar-IA est d’offrir une méthode commune pour comparer deux modèles de façon identique.

2. Comment fonctionnent les outils d’IA générative ?

Nous vous invitons à lire le module : Comprendre l’IA générative.

3. Pourquoi l’IA risque de cacher la vérité sur des questions sensibles ?

Il n’existe pas de véritable risque que l’IA dissimule la vérité sur des sujets sensibles ; il s’agit plutôt de biais ou d’erreurs. L’IA peut produire des réponses erronées de façon convaincante, car elle cherche surtout à fournir une réponse naturelle qui satisfait l’utilisateur.

4. Les version pro des IA conversationnelles partagent-t-elles les données?

Il est difficile d’assurer que les conversations avec une IA payante ne sont jamais partagées. Selon les conditions, elles ne sont pas utilisées pour l’apprentissage si l’utilisateur le spécifie, et celles des versions Entreprise ne le sont pas du tout. Finalement, cela dépend de la confiance envers le fournisseur, d’autant que ces règles évoluent souvent.

5. Pourquoi quand on pose une même question à deux reprises sur ChatGPT, nous recevons 2 réponses différentes ?

Un agent conversationnel utilise des méthodes probabilistes pour générer du texte, ce qui explique pourquoi une requête identique peut produire deux réponses différentes. Ce n’est pas une base de données de phrases. Il prédit chaque mot en fonction de la requête utilisateur et de ses données d’apprentissage.

6. Que penser des IA qui discutent entre elles (type Moltbook) ?

Moltbook est une expérimentation de réseaux sociaux d’agents IA autonomes. L’expérimentation en soi n’est pas problématique. Tout dépend surtout de l’usage ultérieur des résultats.

7. Quelle est la tendance sur la règlementation des IA ?
Exemple, toute production par l’IA pourrait-elle être signalée dans le futur ?

En France, et plus largement en Europe, diverses réglementations visent à encadrer la création et l’utilisation des systèmes d’intelligence artificielle, comme l’EU AI Act. Toutefois, les États-Unis et la Chine n’appliquent clairement pas les mêmes normes, alors que beaucoup d’IA généralistes sont développées dans ces deux pays.

Concernant la production générée par l’IA, j’en ai parlé durant le webinaire dans le cadre du droit d’auteur. À partir de quel degré d’assistance apportée par l’IA doit-on signaler au public qu’elle a été utilisée lors de la publication de contenu ? Cette interrogation s’avère complexe, et il sera difficile d’y répondre tant qu’il n’y aura pas les premières jurisprudences.

8. On se fait souvent avoir sur des images produites par l’IA pensant qu’elles sont le résultat d’un travail totalement humain. Y a-t-il un moyen d’y échapper ?

Si je suis honnête, dans quelques années, il sera sans doute impossible de différencier une image ou une vidéo créée par l’IA d’une véritable photographie ou vidéo. L’éditeur vidéo Runway propose un test visant à deviner entre 2 vidéos laquelle est réelle et celle qui est générée par IA. Bien qu’il s’agisse clairement d’une opération marketing pour démontrer la performance de leur technologie, on peut constater à quel point c’est impressionnant (le test est en anglais) : Runway Research | The Turing Reel.

Certaines technologies marquent automatiquement les contenus générés par IA, mais des utilisateurs peuvent créer des images ou vidéos avec des IA sans cette fonction. Si une IA doit détecter les contenus d’une autre IA, son explicabilité doit être solide pour éviter que cela ne devienne simplement une opinion.

9. L’IA peut-elle être biaisée par les opinions de l’auteur ? Si oui, il me paraît indispensable d’indiquer l’auteur de l’algorithme et celui qui l’entraîne ?

Il n’existe pas un seul « auteur » responsable d’un algorithme ou un unique ingénieur pour entraîner une intelligence artificielle. C’est le fruit du travail d’une équipe, voire d’une organisation entière. L’identité du fournisseur d’IA est généralement bien claire. Cela permet de prévoir les types de biais potentiels issus de leur technologie.

Cependant, avec la multiplication des chatbots présents en bas à droite de nombreux sites Internet, il devient nécessaire que ces sites affichent clairement quelle IA ils utilisent.

10. Existe-t-il une mesure de fiabilité des applications d’IA sur différents critères ?

La fiabilité des modèles d’IA peut être évaluée avec différents “benchmarks”, qu’il s’agisse de questions de culture générale ou de domaines très spécialisés. Pourtant, que signifie réellement une IA annoncée comme fiable à 99,9999% ? Est-ce une erreur toutes les 10 000 conversations, réponses ou mots ? Même à ce niveau de performance, il demeure possible qu’une réponse incorrecte surgisse sur un sujet critique.

Je pense que l’intérêt de ces benchmarks, c’est de comparer plusieurs modèles afin d’identifier les écarts de fiabilité, ce qui permet de déterminer si un changement de modèle d’IA présente un avantage. Il faut garder à l’esprit qu’aucune IA n’est totalement infaillible.

11. A-t-il un intérêt, voire du sens d’être poli avec une IA (Ex. bonjour, au revoir, merci) ?

Il n’existe pas d’avantage à procéder ainsi, sauf dans le cas où l’on souhaite simuler un échange avec une vraie personne. Pour une requête, il est préférable d’adopter une approche directe et précise. De même, le choix entre le tutoiement et le vouvoiement dépend du contexte de la requête, et pas du fait d’être poli avec l’agent IA. Chaque forme a une portée implicite en français qui peut impacter la réponse.

Ce module a été rédigé par Léonard Keat, expert en cybersécurité et IA chez Advens, diplômé ingénieur de l'école Télécom SudParis.

Module précédent

Module suivant