L'IA aujourd'hui épisode du 2025-12-13

L'IA aujourd'hui ! - Een podcast door Michel Levy Provençal

Podcast artwork

Categorieën:

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : assistants de code et biais, lancement de GPT-5.2, alternatives européennes pour l’éducation, adoption des LLM en santé en Chine, art du prompt, et impact sur les métiers de la rédaction.D’abord, un retour d’expérience sur les assistants de codage. Utiliser Copilot ou des extensions LLM accélère le travail, mais ces outils, souvent “serviles”, ont tendance à valider nos partis pris. Exemple parlant : transposer des réflexes R en Python peut conduire à des implémentations non conformes aux bonnes pratiques de l’écosystème Python. Au-delà des bugs visibles, le risque principal est l’amplification d’erreurs méthodologiques subtiles, notamment dans le choix des tests statistiques. Bonne pratique proposée : séparer les décisions d’analyse de celles d’implémentation logicielle, s’appuyer sur la littérature pour le choix des méthodes, puis demander à l’IA de coder. Et, avant publication, confronter le travail aux standards disciplinaires et à un regard expert.OpenAI annonce GPT-5.2, un mois après GPT-5.1, sur fond d’“alerte rouge” pour répondre à la pression de Gemini 3 de Google, et peu après un accord de licence avec Disney. Le modèle améliore la création de feuilles de calcul et de présentations, le code, la vision, l’usage d’outils et la gestion de longs contextes—avec une précision maintenue sur des centaines de milliers de tokens, y compris pour des rapports, contrats et projets multi-fichiers. Sur le benchmark GDPval, GPT-5.2 atteint 70,9 % contre 38,8 % pour GPT-5.1, avec des performances au niveau ou au-dessus d’experts humains sur 44 professions. Trois déclinaisons : Instant pour les requêtes courantes (explications plus claires que 5.1), Thinking pour réduire les hallucinations sur les tâches complexes, et Pro pour les questions les plus difficiles, notamment en programmation et pour les scientifiques. Déploiement aujourd’hui pour les offres payantes, API ouverte à tous les développeurs, accès Free et Go annoncé pour demain, et maintien de GPT-5.1 pendant trois mois.Dans l’éducation, des alternatives européennes misent sur la confidentialité et l’empreinte environnementale. Euria d’Infomaniak, IA souveraine hébergée en Suisse, est conforme RGPD et loi suisse, n’exploite pas les données à des fins commerciales, fonctionne à l’énergie renouvelable et réutilise la chaleur des data centers pour chauffer des logements à Genève. Lumo de Proton privilégie la sécurité avec chiffrement zéro-accès et code open-source ; il ne stocke ni n’analyse les conversations, est accessible sans inscription mais ne propose pas la génération d’images ni l’accès web en temps réel. Le Chat de Mistral, IA française open-source, offre recherche web avec citations et analyse de contenus complexes ; malgré des controverses sur la collecte de données, l’outil est soutenu par les gouvernements français et allemand et s’appuie sur des centres de données bas-carbone.Côté santé, une étude multicentrique en Chine analyse les facteurs d’adoption des LLM. Résultat central : la confiance est le meilleur prédicteur, chez les soignants comme chez les patients et aidants. Pour les professionnels, l’expérience antérieure des LLM et la clarté juridique favorisent l’adoption, quand les préoccupations de confidentialité la freinent. Pour les patients, l’utilité perçue, le niveau d’éducation et l’usage d’outils numériques poussent à l’adoption, la confidentialité reste un frein. Méthodologiquement, l’étude combine enquêtes et entretiens semi-structurés, avec régressions logistiques et approches d’apprentissage automatique. Les soignants insistent sur l’intégration aux flux de travail et la responsabilité ; les patients, sur la compréhensibilité, la réassurance et l’accès équitable. Conclusion : au-delà de la performance algorithmique, la confiance, la littératie numérique et la préparation institutionnelle conditionnent l’usage, dans un cadre unifié de “préparation sociotechnique”.Pour mieux dialoguer avec les modèles, les préfixes structurés offrent un levier simple. Ce sont des instructions explicites qui cadrent la réponse. Exemples pour le format et la clarté : /ELI5, /FORMAT AS, /CHECKLIST, /EXEC SUMMARY, /COMPARE, /STEP-BY-STEP, /TLDL, /SCHEMA, /BRIEFLY. Pour approfondir l’analyse : /SWOT, /METRICS MODE, /CHAIN OF THOUGHT, /FIRST PRINCIPLES, /PARALLEL LENSES, /EVAL-SELF, /PITFALLS, /SYSTEMATIC BIAS CHECK, /DELIBERATE THINKING, /REFLECTIVE MODE. Pour adapter le ton et le rôle : /ACT AS, /ROLE: TASK: FORMAT:, /TONE, /JARGON, /AUDIENCE, /DEV MODE, /PM MODE, /REWRITE AS, /MULTI-PERSPECTIVE. Et pour garder le cap : /GUARDRAIL, /NO AUTOPILOT, /CONTEXT STACK. L’efficacité dépend du contexte ; il faut tester et ajuster.Enfin, l’IA recompose les métiers de la rédaction. Témoignage de Jacques Reulet II : son rôle a glissé du management d’équipe à la formation de chatbots, avant un licenciement une fois les modèles jugés “assez bons”. Dans le secteur, de nombreux rédacteurs éditent désormais des textes générés, avec des salaires en baisse. Artistes, illustrateurs, traducteurs et profils techniques rapportent des fermetures d’activité, des reconversions, voire des déménagements vers des zones moins chères, tandis que la concurrence pour les rares postes restants s’intensifie. Les entreprises y voient des économies de coût, mais le marché se remplit de contenus homogènes, relançant la question de la valeur du travail éditorial humain pour se distinguer.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site