L'IA aujourd'hui épisode du 2025-09-18
L'IA aujourd'hui ! - Een podcast door Michel Levy Provençal
Categorieën:
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : base de données plus rapides, usages réels de ChatGPT, sécurité des mineurs, tension sur le stockage, pourquoi les IA hallucinent, comment mieux les piloter, course aux puces maison et rapports humains–machines.PostgreSQL 18 arrive avec l’entrée/sortie asynchrone pour accélérer les lectures. Concrètement, la base regroupe des lectures sans bloquer le travail, au lieu de s’en remettre uniquement à l’OS. Sont concernés les analyses séquentielles, les Bitmap Heap Scans et des opérations comme VACUUM. Par défaut, io_method=worker avec 3 travailleurs (ajustables) ; sous Linux 5.1+, on peut activer io_uring et faire exécuter les appels par les backends. Une vue pg_aios expose les métriques. Les écritures restent synchrones pour l’ACID. Côté index, le “skip scan” permet d’exploiter dans bien des cas un B-tree multi-colonnes pour des requêtes sur une colonne non en tête, par exemple interroger “date” sur un index (statut, date). Les UUID passent à la version 7 : 48 bits de timestamp puis aléatoire, meilleure localité d’insertion et indexabilité. Les colonnes générées deviennent virtuelles par défaut (moins de coûts à l’écriture, STORED uniquement si demandé). Enfin, prise en charge d’OAuth 2.0 avec jetons porteurs, compatible avec Okta ou Keycloak, ouvrant la voie au MFA et au SSO sans stocker de mots de passe.Cap sur les usages: une étude OpenAI–Université de Pennsylvanie a analysé 1,5 million de conversations. Résultat: 70% d’usage personnel contre 30% professionnel, le personnel passant de 53% à plus de 70% entre juin 2024 et juin 2025. Trois grands motifs — surtout des demandes de conseils — concentrent près de 80% des échanges. La féminisation progresse: de 37% d’utilisatrices en janvier 2024 à 52% en juillet 2025. Les 18–25 ans génèrent près de la moitié des messages adultes. La croissance est quatre fois plus rapide dans les pays à revenus faibles et intermédiaires. Côté métiers, les cadres utilisent ChatGPT au travail surtout pour l’écriture (52%), tandis que l’IT l’emploie à 37% pour l’aide technique et le code.Sur la sécurité, OpenAI renforce ChatGPT après des plaintes, dont celle liée au suicide d’Adam Raine. Le service tentera d’estimer l’âge et, parfois, exigera une pièce d’identité pour vérifier les plus de 18 ans. Des contrôles parentaux sont en place, et pour les mineurs, le modèle évitera désormais les échanges flirtants et les contenus sur le suicide ou l’automutilation, même en fiction. En cas d’idées suicidaires chez un moins de 18 ans, OpenAI cherchera à joindre les parents et, si nécessaire, les autorités en danger imminent. Ces mesures s’inscrivent dans une évolution plus large des politiques de modération, avec un rappel: YouTube utilise aussi des estimations d’âge depuis juillet.Le marché du stockage subit la pression des serveurs d’IA: disponibilité en baisse, prix en hausse pour HDD et SSD, alerte TrendForce à l’appui. Western Digital et SanDisk ont relevé leurs tarifs ; Micron a gelé les siens et augmenté certains NAND de 20 à 30%. Le sous-investissement dans le disque mécanique aggrave la rareté. Les cloud providers et grands consommateurs devront payer plus cher, alimentant la spirale, tandis que les fabricants PC pourraient réduire la capacité ou attendre de nouvelles générations. La mémoire vive pourrait aussi être impactée.Pourquoi les IA hallucinent? Un article d’OpenAI avance une explication mathématique: même avec des données parfaites, la génération mot à mot entraîne des erreurs. Le taux d’erreur d’une phrase est au moins deux fois celui d’une question oui/non. Moins un fait est vu à l’entraînement, plus le modèle se trompe: si 20% des anniversaires n’apparaissent qu’une fois, les modèles échoueront sur au moins 20% de ces requêtes. Les benchmarks aggravent le phénomène: 9 sur 10 notent en binaire et pénalisent “Je ne sais pas”, incitant à deviner. Pistes: calibrer la confiance et ne répondre qu’au-dessus d’un seuil (par exemple 75%), ou recourir à la quantification d’incertitude et à l’apprentissage actif — au prix d’un surcoût calculatoire. Tolérable en santé ou finance, moins en grand public.Pour mieux piloter un modèle, un guide propose une “invite maîtresse” structurée (ex: rôle “rédacteur technique” ou “analyste marché”), l’ajustement des paramètres de raisonnement, l’auto-réflexion et un processus “metafix” où le modèle révise sa sortie. Décrire précisément la tâche, ajouter du contexte utile (workflows, pain points) et exiger des livrables clairs — PRD, diagrammes, spécs API, code — améliore nettement la qualité.Côté matériel, OpenAI prépare une puce maison pour 2026 avec une équipe d’environ 40 personnes et l’appui de Broadcom, dont l’action a gagné 9%. Objectif: réduire la dépendance à Nvidia, maîtriser les coûts et optimiser pour ses besoins — une stratégie déjà adoptée par Google, Amazon, Meta et Microsoft.Enfin, regards croisés sur le travail: le “centaure” — humain assisté par la machine — s’oppose au “centaure inversé”, où l’humain sert la machine. Exemple médiatique: un guide de lecture généré avec des livres inexistants a mis en cause un rédacteur ; à l’inverse, l’usage volontaire de Whisper pour retrouver une citation illustre un gain ciblé. Beaucoup anticipent une bulle IA: même si des modèles open source perdureront, restent l’empreinte climatique et la précarité des travailleurs, d’où l’appel à contenir la surchauffe.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
