Épisode 126- Le « débiaisage » des données et les errances algorithmiques
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
Consultez-vous ChatGPT pour vos problèmes de santé? Peut-on «débiaiser» des données? Un énoncé de principes éthiques vous suffit-il pour prendre des décisions délicates concernant le développement ou l'utilisation de l'IA? Voilà autant de questions difficiles que nous abordons cette semaine.
Au programme:
- ChatGPT-Health : Une consultation LLM par jour éloigne le médecin pour toujours (?)
- Biais humains, « débiaisages » des données et errances algorithmiques
- Inefficacités et limitations pratiques de l’application des principes et idéaux qui guident le développement et l’utilisation de l’IA.
- INESSS - Modalité d’évaluation des technologies numériques en santé et en services sociaux
- Combat des LLM - Dernier examen pour l’humanité (la suite)
- Robots conversationnels - Confidences et soutien moral. AI Chatbots for Mental Health Support
- Énoncé de principes pour une utilisation responsable de l'intelligence artificielle par les organismes publics.
- Technosolutionnisme et autres rêves d’ingénierie
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D
BaristIAs: Véronique Tremblay, Frédérick Plamondon, Benjamin Leblanc.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Mineo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc, Marie-Ève Vachon Savary.
En musique :
- Musique: PP2, Aubert Sénéchal (2025) (c)
Support the show
まだレビューはありません