『L'IA aujourd'hui épisode du 2025-11-23』のカバーアート

L'IA aujourd'hui épisode du 2025-11-23

L'IA aujourd'hui épisode du 2025-11-23

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : reconstruction 3D avec SAM 3D, grand chantier réglementaire européen avec le Digital Omnibus, réglages de confidentialité de Gmail, bonnes pratiques pour Gemini 3, montée de l’« IA literacy » en entreprise, et débat intellectuel trois ans après ChatGPT.On commence avec SAM 3D, une nouvelle étape pour comprendre le monde en trois dimensions à partir d’une seule image. Deux modèles sont proposés. SAM 3D Objects reconstruit objets et scènes, même avec vues obliques ou parties cachées, grâce à une lecture contextuelle de l’image. SAM 3D Body estime pose et morphologie humaines à partir d’un cliché unique via le maillage 3D Meta Momentum Human Rig, qui sépare le squelette de la forme des tissus mous pour une interprétation plus claire. Les modèles s’appuient sur près d’un million d’images annotées par un moteur de données à grande échelle, avec un pré-entraînement sur données synthétiques puis un post-entraînement sur images naturelles. Les essais sont possibles dans le Segment Anything Playground, où l’on peut téléverser ses propres images. Les pistes d’amélioration visent une meilleure résolution et la gestion d’interactions entre plusieurs objets ou personnes.Cap sur Bruxelles : la Commission européenne présente le Digital Omnibus, un paquet législatif pour harmoniser les règles numériques. Côté RGPD, le texte propose d’exclure certaines données pseudonymisées, d’élargir l’« intérêt légitime » pour entraîner des systèmes d’IA sans consentement explicite, et de simplifier le traitement des données sensibles détectées a posteriori dans les jeux d’entraînement, évitant de relancer un entraînement complet. Un volet cookies introduit un consentement en un clic valable six mois pour réduire la lassitude des bannières. Sur l’IA Act adopté en 2024, la Commission suggère de repousser de plus d’un an l’entrée en vigueur des obligations pour les systèmes à haut risque, d’alléger les démarches — notamment pour les PME — et d’exempter d’enregistrement certains modèles si leur usage est strictement procédural. Emmanuel Macron, à Berlin, plaide pour innover avant de réguler. Des critiques s’élèvent : NOYB parle d’un abaissement des protections, et les sociaux‑démocrates au Parlement expriment leurs craintes. Le texte part maintenant en examen au Parlement et chez les États membres, pour plusieurs mois.Côté plateformes, Gmail clarifie ses « fonctionnalités intelligentes ». L’analyse des emails sert au filtrage des spams, au classement et aux suggestions d’écriture, mais Google affirme ne pas utiliser ces données pour entraîner ses modèles d’IA générative. Des confusions persistent sur l’activation par défaut. Pour désactiver, il faut agir à deux endroits: les réglages Gmail/Chat/Meet et les fonctionnalités intelligentes de Google Workspace. Les deux doivent être coupés pour que les données ne soient pas utilisées.Passons aux usages avancés de Gemini 3, annoncé comme nettement supérieur à 2.5 Pro. Les bonnes pratiques mettent la clarté avant la persuasion, et la logique avant la longueur. Au menu: planification explicite, listes de tâches à jour, auto‑critique des résultats; structuration des consignes avec balises XML ou Markdown — sans les mélanger — pour délimiter clairement instructions et données; et outils agentiques comme persistance, pré‑calcul et réflexion. Adaptez la méthode au domaine — recherche, écriture, résolution de problèmes, éducation — et rappelez‑vous que l’ingénierie du contexte est empirique: on itère, on mesure, on affine selon les données, la latence et la complexité.Sur le terrain des compétences, l’alphabétisation en IA devient un pilier organisationnel. 81 % des recruteurs font des compétences IA une priorité d’embauche en 2025, alors que l’offre reste en retrait. Deux approches dominent: technique (programmation, apprentissage automatique) et socio‑éthique (confidentialité, sécurité, équité, transparence). Les réunir en une approche socio‑technique éclaire les impacts réels, des algorithmes aux pratiques managériales. Le Forum économique mondial anticipe que 40 % des employeurs envisagent des réductions d’effectifs d’ici 2030 avec l’automatisation. Les chatbots reflètent souvent des perspectives dominantes: utiles pour des synthèses, moins pour une expertise pointue. L’« IA literacy » place l’agence humaine au centre: choisir quand et pourquoi utiliser l’IA, évaluer les résultats, superviser, aligner avec les priorités de l’UE, et intégrer des politiques « privacy by design ».Enfin, trois ans après ChatGPT, le débat intellectuel s’intensifie. Deux essais alertent sur la standardisation de la pensée et la « prolétarisation » ...
まだレビューはありません