- N’oubliez pas vos écouteurs personnels pour assister à certaines conférences.
- Apportez votre gourde, des points d'eau seront accessibles au sein de l'événement.
- L'impression de votre badge d'accès n'est pas obligatoire pour accéder à l'événement. Il vous sera demandé de présenter le QR code à l'entrée de l'événement et des différentes salles de conférence.
- L’accès à l’événement est strictement réservé aux personnes accréditées. Chaque participant devra présenter son badge nominatif. Afin de vérifier la concordance, un justificatif d’identité (carte ou copie numérique) pourra être demandé à l’entrée.
IA et Vérité : du fantasme du 100% fiable à l’ère de la confiance calibrée
23 sept. 2025 — 11:45 CEST - 12:15 CEST
SALON INFINI
Vous devez être inscrit et connecté pour accéder à cette fonctionnalité
Déja inscrit ? Connectez-vous pour personnaliser votre experience !
Description
Peut-on vraiment attendre de l’intelligence artificielle qu’elle nous livre une vérité absolue ? Derrière la promesse d’objectivité se cachent les biais des données d’entraînement, les limites techniques des modèles et le spectre des hallucinations. Les approches actuelles, CoT, RAG au RLHF par exemple, marquent des progrès, mais restent insuffisantes pour garantir une fiabilité totale. L’enjeu n’est donc plus de viser une IA infaillible, mais d’apprendre à calibrer la confiance que nous lui accordons. Entre supervision humaine et lucidité des utilisateurs, cette discussion explorera comment bâtir une relation de confiance pragmatique avec l’IA.
Résumé
L'utilisation de l'intelligence artificielle soulève des questions sur la confiance en ses résultats. La qualité des données d'apprentissage est cruciale pour réduire les risques de biais et d'erreurs. Différentes approches, telles que le RAG et le Chain of Thought, visent à améliorer la fiabilité de l'IA. Il est essentiel de calibrer la confiance en fonction de la vérifiabilité des résultats et des conséquences des erreurs. Les entreprises doivent être conscientes des risques éthiques et de dépendance liés à l'IA. Une supervision humaine et une gouvernance adaptée sont recommandées pour garantir une utilisation responsable de l'IA.
Ce résumé a été généré par une IA.