『L'IA aujourd'hui épisode du 2025-11-05』のカバーアート

L'IA aujourd'hui épisode du 2025-11-05

L'IA aujourd'hui épisode du 2025-11-05

無料で聴く

ポッドキャストの詳細を見る

このコンテンツについて

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : finances et gouvernance chez OpenAI, sécurité des agents et règle des deux agents, arXiv resserre la modération, Google AI Studio pour prototyper avec Gemini, IA et cyberattaques zero-day, et débat sur l’écriture assistée par l’IA.On ouvre avec OpenAI. Selon des chiffres financiers rapportés par Microsoft, l’entreprise aurait enregistré environ 12 milliards de dollars de pertes au dernier trimestre. Dans un podcast, Sam Altman et Satya Nadella ont défendu la stratégie, évoquant des engagements massifs — jusqu’à un trillion de dollars pour des projets d’infrastructure — et des revenus « plus élevés qu’on ne le pense », sans en détailler les sources. Altman vise 100 milliards de dollars de revenus d’ici 2027 et reconnaît une dépendance aux ressources de calcul, tout en misant sur une hausse de la demande. Côté gouvernance, OpenAI a été restructurée sous une fondation dotée d’un capital de 130 milliards de dollars, au-dessus de l’entité commerciale. Conséquence pour Microsoft : une participation réduite de 32,5 % à 27,5 %, soit une perte de valeur estimée à 11,5 milliards. Sur le produit, les tarifs de Sora augmentent pour soutenir la viabilité du modèle, avec moins de vidéos gratuites. Altman, dans une interview plus émotionnelle qu’à l’habitude, a défendu un plan d’investissement évoquant 1,4 trillion de dollars en capacité informatique, sur le modèle des débuts d’AWS. La concurrence reste vive, de Google à Anthropic, et certains analystes évoquent un statut « trop grand pour échouer » susceptible d’alimenter des scénarios d’intervention publique, une hypothèse contestée. Les partenariats avec Microsoft et Nvidia restent centraux pour l’accès à l’infrastructure.Restons sur la fiabilité des systèmes avec un risque clé: l’injection de commandes dans les agents d’IA. Un simple email piégé peut détourner un « Email-Bot », déclenchant exfiltration de messages ou envoi de phishing. Meta propose la « règle des deux agents » pour réduire ce risque de façon déterministe: dans une même session, un agent ne doit pas cumuler plus de deux propriétés parmi [A] traiter des entrées non fiables, [B] accéder à des systèmes sensibles ou données privées, [C] changer d’état ou communiquer vers l’extérieur. Si les trois sont nécessaires, l’agent ne doit pas opérer seul et nécessite au minimum une validation fiable, par exemple une approbation humaine.Changement de scène dans la recherche: arXiv annonce ne plus accepter, en informatique, les articles de revue et de position non accompagnés d’une preuve de soumission à l’évaluation par les pairs. Objectif: endiguer un afflux de textes générés par IA, souvent réduits à des bibliographies annotées, qui surcharge la modération au détriment de travaux substantiels. Le phénomène s’inscrit dans une dynamique plus large: essor de revues prédatrices à modèle payant et usage d’outils comme ChatGPT par certains relecteurs, questionnant la qualité du contrôle scientifique.Côté outils, Google AI Studio propose un espace web pour prototyper avec les modèles Gemini. Connexion via compte Google, aucune installation, conditions à accepter une fois, puis création de clé API depuis l’onglet dédié pour accéder aux modèles en Python, Node.js ou cURL. L’interface réunit tout sur un écran: « Nouveau Chat » pour repartir de zéro, mode Comparaison pour tester une même invite sur plusieurs versions et paramètres, bouton « Obtenir le Code » qui génère l’extrait prêt à intégrer. L’Éditeur d’invite gère le multi‑tour, l’upload de fichiers et médias; le Sélecteur de modèle couvre audio, vidéo, Gemini, Gemma, images et direct, avec aperçu des capacités, limites de jetons et coupure de connaissance; les Instructions système fixent le cadre conversationnel; la température module la variabilité; et la génération d’images s’appuie sur Imagen pour le texte‑vers‑image, variations et éditions.Sur la cybersécurité, l’IA accélère la découverte de « zero‑days » — des failles inconnues des éditeurs et sans correctifs — ce qui peut multiplier et sophistiquer les attaques. À l’inverse, les mêmes techniques aident la défense: détection d’anomalies à grande échelle et corrélations rapides. Beaucoup d’entreprises doivent néanmoins adapter leurs investissements et stratégies pour suivre ce rythme.Enfin, sur la création de contenu, la défiance envers l’écriture assistée par IA s’installe sur certaines plateformes qui la restreignent. Des auteurs pointent pourtant son rôle d’appui — structuration, ton, mise en forme — sans se substituer à la voix humaine, résumée par la formule: « L’IA n’est pas l’ennemi de la créativité; c’est l’ignorance de ...
まだレビューはありません