L'IA aujourd'hui épisode du 2025-03-25

L'IA aujourd'hui ! - Un pódcast de Michel Levy Provençal

Podcast artwork

Categorías:

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'alignement entre le cerveau humain et les modèles de langage, les enjeux des droits d'auteur pour l'IA, et les avancées des modèles multimodaux. C’est parti !Commençons par une étude fascinante qui révèle comment l'activité neuronale dans le cerveau humain s'aligne avec les modèles de langage de grande taille, ou LLMs. Des chercheurs de Google Research, en collaboration avec plusieurs universités, ont découvert que les représentations internes de ces modèles, comme Whisper, s'alignent de manière linéaire avec l'activité neuronale lors de conversations naturelles. En utilisant des électrodes intracrâniennes, ils ont observé que les embeddings de la parole et du langage du modèle prédisent l'activité neuronale dans différentes zones du cerveau, comme la zone de Broca et le cortex moteur, avant et après l'articulation des mots. Cette découverte offre un cadre pour comprendre comment le cerveau traite le langage.Passons maintenant aux débats sur les droits d'auteur dans le domaine de l'IA. OpenAI et Google font pression sur le gouvernement américain pour permettre l'entraînement de leurs modèles sur du matériel protégé par des droits d'auteur. Ils soutiennent que cela est crucial pour maintenir l'avance des États-Unis en IA face à la Chine, où les développeurs ont un accès illimité aux données. OpenAI affirme que l'application des protections de l'usage équitable est une question de sécurité nationale. Cependant, cette position soulève des préoccupations, notamment en raison des accusations de violation de droits d'auteur auxquelles font face plusieurs entreprises d'IA.En parallèle, OpenAI a annoncé de nouvelles fonctionnalités API pour la conversion texte-parole et parole-texte. Bien que prometteurs, ces modèles présentent des risques d'exécution accidentelle d'instructions, notamment à cause de l'injection de prompt. Le modèle gpt-4o-mini-tts, par exemple, permet de moduler le ton de la lecture, mais pourrait mal interpréter des directives scéniques. Ces défis soulignent l'importance de la prudence dans l'utilisation de ces technologies.Un incident récent met en lumière les risques des hallucinations des modèles de langage. Arve Hjalmar Holmen, un citoyen norvégien, a été faussement accusé par ChatGPT d'avoir commis des crimes graves. Cette situation a conduit à une plainte pour violation du RGPD, soulignant les enjeux de l'exactitude des données personnelles traitées par l'IA. OpenAI reconnaît que ses modèles peuvent générer des informations inexactes, mais cela ne les dispense pas de leurs obligations légales.Enfin, Microsoft a lancé son modèle multimodal Phi-4, capable de traiter simultanément texte, images et parole. Ce modèle se distingue par sa capacité à répondre à des entrées vocales et à surpasser d'autres modèles dans des tâches combinant différentes modalités. L'approche Mixture-of-LoRAs utilisée dans Phi-4-multimodal démontre l'efficacité des modèles mixtes pour le traitement des données multimodales, bien que des défis subsistent pour garantir la pertinence des réponses.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site