Jump to content

ID² E.32 - L’explicabilité des modèles d’IA à l’ère de l’IA générative

Enjeux, régulation et perspectives

Play
Season 1, episode 32
23 min / Published

Comment s'assurer qu'un modèle d'IA prend des décisions fiables, compréhensibles et conformes au AI Act ?

L'adoption de l'IA en entreprise pose un défi majeur : la fameuse "boîte noire". Dans le nouvel épisode de notre podcast Idées au Carré, nous accueillons Sara Meftah, consultante-chercheuse au Square Research Center, pour décrypter l'Explicabilité (XAI).

Elle nous explique :
➡️ Pourquoi l'XAI est un levier de performance essentiel et non un simple luxe.
➡️ Comment les entreprises peuvent utiliser des outils concrets, comme la librairie open-source #BEEXAI que nous avons développée, pour évaluer et comparer les méthodes d'explicabilité.
➡️ L'impact de l'AI Act sur les exigences de transparence (Article 13) et la supervision humaine (Article 14).

Ne pilotez plus votre IA à l'aveugle. Découvrez les enjeux pour bâtir une IA fiable, éthique et responsable.

Episode ratings
Please log in or sign-up to rate this episode.
Idées au carré
A podcast by Square Management
Un podcast du cabinet Square Management
Episode comments

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
What do you think about this episode? Leave a comment!

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×

Important Information

By using this website, you accept the use of cookies in accordance with our Privacy Policy.