41 Matching Annotations
  1. Sep 2025
    1. Briefing sur l'impact de l'IA sur l'enseignement sur France Culture

      Ce document de briefing analyse les thèmes principaux, les idées essentielles et les faits importants issus des discussions sur l'intégration de l'intelligence artificielle dans l'éducation.

      1. L'IA dans l'enseignement : omniprésence, défis et opportunités

      L'IA, en particulier les IA génératives grand public, est déjà massivement présente dans les pratiques des élèves et, dans une moindre mesure, des enseignants.

      Selon le ministère de l'Éducation nationale, 80% des élèves et 20% des professeurs utilisent déjà l'IA.

      • Usages des élèves : Les élèves utilisent l'IA pour corriger des textes, reformuler des cours, mieux comprendre des notions, trouver des définitions de mots, et parfois pour tricher.

      Un élève témoigne : "Je lui demande quand j'ai besoin d'aide pour faire les dissertations de philosophie ou de français. (...) il te mâche un petit peu le travail."

      Cependant, il y a aussi une conscience des limites : "parfois il donne des informations fausses et donc faut quand même vérifier si c'est ça ou pas."

      Un exemple concret de triche est cité : une élève utilisant une IA lors d'un devoir surveillé pour obtenir les solutions à l'oreille.

      • Problèmes cognitifs : Christophe Caillot, professeur d'histoire, souligne que les IA génératives sont "extrêmement problématiques au point de vue cognitif" car elles agissent comme des "courts circuits dans les apprentissages".

      Il explique qu'apprendre est un "chemin, un parcours qu'on doit faire assez long chemin d'embûe" et que l'IA "nous empêche d'accéder au savoir aux apprentissages".

      • Perte de sens de l'apprentissage : L'usage de l'IA est vu comme "dévalorisant" les apprentissages et posant un "problème anthropologique" en expliquant "qu'on peut se passer d'apprendre dans la vie", ce qui revient à "se passer de ce qui fait un peu le sel de la vie".

      • Rôle des IA conçues pour l'éducation : Orian Ledroit, directrice générale d'EdTech France, distingue les IA grand public (comme ChatGPT) des "autres IA qui sont aussi dans les classes mais qui ont été conçus à des fins éducatives et qui n'ont pas ni les mêmes impacts ni les mêmes modèles technologiques et qui sont (...) utiles à des apprentissages qui sont plus stimulants plus personnalisés".

      Elle mentionne des études montrant des effets positifs et négatifs selon le contexte, l'accompagnement et les utilisateurs, notamment sur la motivation à apprendre (réduction de la peur de l'échec).

      • Manque de recul et de formation : Jada Pistili, docteure en philosophie spécialisée dans l'éthique de l'IA, souligne le manque de recul scientifique pour évaluer les impacts à long terme de ces technologies.

      "On est tous un peu des cobaye en fait," dit-elle, insistant sur l'approche "mitigée" nécessaire. Elle mentionne également le manque de formation des enseignants.

      2. Le débat sur la personnalisation et le remplacement des enseignants

      • L'argument de la personnalisation (EdTech) : Orian Ledroit défend que l'IA peut "donner les moyens aux enseignants (...) d'identifier encore mieux peut-être encore plus facilement les fragilités d'un élève ou au contraire les facilités de l'autre" et ainsi permettre une "différenciation" ou "personnalisation" de l'apprentissage.

      Elle affirme que l'IA ne vise pas à remplacer les enseignants mais à "soutenir leur pratique pédagogique".

      • La critique de la personnalisation (Syndicat enseignant) : Christophe Caillot rejette l'argument de la personnalisation comme un "argument marketing", expliquant qu'une IA, n'étant pas une personne, "ne peut pas personnaliser".

      Il compare les IA éducatives actuelles aux "teaching machines" de Skinner des années 50, qui n'ont pas abouti à une révolution.

      Pour lui, la solution aux difficultés des enseignants réside dans l'embauche de personnel humain ("des enseignants, des CPE des AESH des AED et cetera des humains en fait") plutôt que dans l'adoption d'IA qui posent des "problèmes écologiques monstrueux" et sont "fondées sur le pillage des données".

      • La peur du remplacement : Le "spectre du remplacement" est une inquiétude majeure chez les enseignants, comme en témoigne la forte participation aux formations syndicales sur le sujet.

      Christophe Caillot cite des "expérimentations déjà aux États-Unis en Angleterre en Corée du Sud de classe voire d'école sans prof", y voyant le véritable objectif de ces entreprises : "si ces tech elles veulent exister (...) elles ont besoin à un moment que de prendre la place des enseignants il y a pas d'autres solutions."

      • L'enseignant augmenté : Orian Ledroit évoque l'idée d'"augmenter l'enseignant" en automatisant les tâches chronophages qui "ne relèvent pas de la pratique pédagogique", comme la gestion des emplois du temps, la notation, la correction des copies et la préparation des cours.

      Christophe Caillot y voit une vision "transhumaniste" qui suggère que les enseignants actuels sont "insuffisants".

      3. IA, service public et modèle économique

      • Articulation public-privé : Orian Ledroit rappelle que le secteur de l'éducation travaille déjà avec des entreprises privées (ex: manuels scolaires) et que "quand on développe un outil d'intelligence artificielle à des fins éducatives on fait le pari de on investit on fait de la recherche et développement".

      L'État, selon elle, prend moins de risques.

      Elle insiste sur le fait que les logiciels éducatifs doivent être "conformes à un cadre qui est défini par l'État et notamment qui prévoit le fait d'être conforme à toutes les réglementations européennes en matière de données personnelles RGPD et cetera".

      • Critique de la marchandisation de l'éducation : Christophe Caillot dénonce le fait que la tech considère l'éducation comme un "marché parmi d'autres", ce qui est en contradiction avec la vision de l'école comme "service public" et "bien commun".

      Il estime que la "recherche du profit rentre en concurrence s'affronte avec la défense du bien commun", citant l'exemple de la privatisation de l'eau.

      • Transparence et biais : Jada Pistili suggère que l'Open Source pourrait être une solution pour la "transparence" des systèmes d'IA, notamment concernant les "données d'entraînement" et les "biais" qui en découlent.

      Orian Ledroit affirme que les IA éducatives, développées avec des pédagogues, intègrent la correction des biais dès la conception, contrairement aux IA génératives grand public.

      Christophe Caillot contredit cette affirmation en citant l'exemple de ChatGPT produisant des interprétations biaisées de la laïcité française.

      • Double discours : Jada Pistili observe une "forme d'hypocrisie" et un "double mesure et double poids" dans les politiques publiques : on interdit aux élèves d'utiliser l'IA pour les devoirs, mais on dote les enseignants d'outils basés sur l'IA, ce qui crée un manque de sens pour les élèves.

      Elle insiste sur la nécessité d'un "vrai programme, une vraie pédagogie" pour la formation à l'IA des enseignants, afin de ne pas "dénigrer un peu la figure de l'enseignant".

      4. Bilan et perspectives

      Le débat révèle une tension fondamentale entre le potentiel de l'IA à "bouleverser l'éducation" et les inquiétudes profondes quant à ses implications cognitives, éthiques et sociétales.

      • La rapidité du changement : Jada Pistili conclut que "tout va un peu trop vite" et que la société "tâtonne" face à une technologie qui "va transformer plein de domaines".
      • L'autonomie des élèves : Christophe Caillot insiste sur la nécessité de "maintenir la capacité de nos élèves des futures générations à ne pas utiliser les IA" et à "maintenir son autonomie par rapport à ses soi-disants outils", plutôt que de les former à les utiliser "de manière névrotique".
      • La crise de l'école : Orian Ledroit souligne les défis actuels de l'école publique (reproduction des inégalités, baisse du niveau, manque de profs) et voit l'IA comme un moyen "pragmatique et concret de s'appuyer sur des outils qui ont fait leurs preuves" pour y répondre, en attendant des investissements massifs.

      En somme, l'intégration de l'IA dans l'éducation est une réalité complexe, perçue tantôt comme une solution prometteuse pour une personnalisation de l'apprentissage et un allègement des tâches des enseignants, tantôt comme une menace pour le sens de l'apprentissage, l'autonomie des élèves et la nature du service public d'éducation.

      Le manque de recul, de formation et de transparence, ainsi que la question de la marchandisation du savoir, sont au cœur des préoccupations.

  2. Jun 2025
    1. Compte-rendu détaillé de la matinée : L'IA, la voie citoyenne Date : [Non précisé, mais fait référence à des événements de 2023 et 2024] Lieu : Palais d'Iéna, siège du Conseil Économique Social et Environnemental (CESE) Organisateurs : CESE, Conseil National du Numérique (CNNum), en partenariat avec Make.org, The Future Society, Sciences Po, ENS.

      1. Introduction et Objectifs de la Matinée La matinée, organisée au CESE, assemblée de la société civile et de la participation citoyenne, vise à discuter de la place du citoyen dans l'intelligence artificielle (IA). L'événement s'inscrit dans la perspective du Sommet Mondial de Paris sur l'IA, avec pour ambition de donner la parole aux citoyens sur les impacts et les enjeux de l'IA.

      Points clés :

      • Rôle du CESE et du CNNum : Le CESE, en tant qu'assemblée de la société civile et de la participation citoyenne, est le lieu "tout à fait naturel" pour cet événement. Le CNNum prolonge ses "cafés IA" initiés en 2024, des moments d'écoute et de débat sur les enjeux de l'IA.
      • Objectif de l'événement : Donner la voix à ceux qu'on n'entend pas toujours, pour "exprimer leurs espérances et leurs craintes face au déploiement de l'IA et de regarder par le débat si nous pouvons trouver des réponses communes."
      • Contexte global de l'IA : L'IA est comparée à l'arrivée d'Internet dans les années 2000 et de l'électricité dans les années 1900, suscitant "les mêmes passions".
      • Nature de l'IA : L'IA est présentée comme "un objet social et politique résultant de choix collectif et humains avant même d'être un objet technologique", n'étant "ni porteuse de miracle ni de danger" en soi.
      • Enjeux des travaux du CESE : Mettre le sujet de l'IA "à hauteur de la société civile" en examinant les problématiques sociales : risques d'atteinte aux droits fondamentaux et libertés individuelles, empreinte environnementale, autonomie stratégique et souveraineté, impacts sur l'emploi, l'intégration en entreprise, les services publics, l'éducation, la santé, le handicap, et la garantie d'un accès au non-numérique.
      • Expertise d'usage : Nécessité d'apporter une "expertise d'usage" pour compléter les savoirs spécialisés et les stratégies politiques/commerciales, cruciale pour l'acceptabilité des mutations par les concitoyens.
      • Mission commune : L'IA ne doit pas se substituer à l'intelligence collective. L'objectif est de rendre l'IA "plus démocratique", pour que "les citoyens, les salariés, les administrés aient un poids dans les décisions et les calculs".
        1. Perspectives Gouvernementales et Institutionnelles
      • Clara Chappaz, Ministre déléguée chargée à l'Intelligence Artificielle et au Numérique :
      • Inclusivité du Sommet de Paris : Souligne l'importance de rendre le Sommet de Paris sur l'IA "le plus inclusif possible", en "embarquant la société civile" et en répondant aux questions des citoyens.
      • IA au service de l'intérêt général : L'objectif principal est de mettre cette technologie "au service de l'intérêt général".
      • IA : une question démocratique et politique : L'IA n'est pas seulement économique ou de compétitivité, mais une "question absolument démocratique et même politique".
      • Confiance comme ciment : "La confiance doit être le ciment du développement de cette technologie". Sans confiance, il n'y aura pas d'adoption de l'innovation.
      • Responsabilité collective : Nécessité d'une "responsabilité absolument collective" pour que l'IA ne devienne pas une source de "fracture sociale", "frustration" ou "fracture territoriale", mais un "outil de progrès".
      • Écoute des citoyens : Mentionne les "Cafés IA" du CNNum et les ateliers "élu.ai" comme exemples d'initiatives d'écoute et d'échange avec les Français sur leurs perceptions et craintes de l'IA.
      • Équilibre : Trouver un équilibre entre le développement de l'écosystème technologique (pour la souveraineté) et l'accompagnement des citoyens à l'adoption de l'IA, dans le respect des droits fondamentaux, des libertés individuelles, de l'égalité et des limites planétaires.
      • Valeurs françaises et européennes : Faire de la France une puissance de l'IA compatible avec son "socle de valeur" et les "spécificités de notre culture française et européenne".
        1. Témoignages Citoyens et Expériences Locales
      • Martine (citoyenne ayant participé à la commission temporaire sur l'IA au CESE) :
      • Expérience formatrice : Souligne une expérience "formatrice et révélatrice", malgré un sentiment initial d'"illégitimité".
      • Importance du dialogue : Les échanges enrichissants et la diversité des perspectives ont permis une meilleure compréhension des enjeux.
      • Rôle du CESE : Le CESE est une "passerelle où décideurs publics et de citoyens... peuvent se réunir et échanger équitablement", favorisant un dialogue inclusif et renforçant la légitimité des décisions.
      • IA comme outil : Réaffirme que l'IA "n'est ni une entité autonome ni véritablement intelligente", mais "un outil façonné par des humains".
      • Responsabilité collective : Insiste sur l'immense responsabilité des créateurs et utilisateurs de l'IA, et le rôle des décideurs publics dans la régulation et l'anticipation des dérives.
      • Axel Docher (Make.org) et Constance (The Future Society) sur la consultation publique :
      • Large participation : Plus de 11 000 participants et 120 000 votes, montrant un "haut niveau de compréhension" et des "points de convergence assez forts".
      • Vigilance active : Les citoyens sont "ouverts à l'IA" mais réclament une "vigilance très active sur son mise en application".
      • IA dans les services publics : Acceptation de l'IA dans les services publics (ex: diagnostics de santé), mais "point de rupture" sur la "décision humaine" : l'IA doit être un outil au service de la décision, non une substitution.
      • Rationalisation vs. Contribution : L'IA ne doit pas être exclusivement au service de la rationalisation des services, mais un élément contributeur.
      • Peurs démocratiques : Peur de l'IA utilisée pour la désinformation et la fragilisation de la démocratie.
      • Opportunité pour la démocratie : L'IA peut "renforcer le lien entre les citoyens et les processus démocratiques", notamment en "décomplexifiant le monde pour les citoyens".
      • Lien IA-Démocratie : "Il n'y aura pas d'innovation ouverte" et "pas d'IA au service du bien commun" sans démocratie.
      • Alice Rousset (Ville de Paris) :
      • Démarche progressive : La Ville de Paris a abordé l'IA par l'expérimentation pour améliorer les services publics (analyse espace public, information aides sociales, urbanisme).
      • Démarche participative : Face à l'essor de l'IA générative, adoption d'une démarche "participative et inclusive" (auditions experts, consultation citoyenne, journée citoyenne).
      • Enseignements : Les Parisiens souhaitent que la ville se saisisse de l'IA "à son niveau" de manière "responsable", avec un "réel encadrement".
      • Axes prioritaires : Nécessité d'un "cadre de transparence et de contrôle des projets IA" (évaluation préalable, suivi déploiement avec société civile) et un "effort de formation et de sensibilisation".
      • Rappel : L'IA ne doit pas "se substituer à la décision humaine".
      • Pierre Jannin (Ville de Rennes) :
      • IA : un sujet politique : L'IA doit être "au service des transitions sociales, écologiques et démocratiques de l'intérêt général".
      • Voie alternative : Créer une "voie alternative qui contrôle, qui régule" face à un modèle "ultralibéraliste et dérégulé".
      • Conseil Citoyen du Numérique Responsable : Création d'une instance de 30 citoyens tirés au sort travaillant sur les enjeux de l'IA (impact sur métiers, IA au service du territoire, enjeux éthiques, liberté, sécurité, justice).
      • Points de vigilance : Les citoyens de Rennes ont identifié des points de vigilance cohérents avec les rapports nationaux : contrôle, transparence, régulation, risques sur l'emploi, lien public-privé, opportunités.
      • Concertations territoriales : Initiative nationale "Concertations territoriales de l'intelligence artificielle" (bottom-up) avec 33 villes, pour extraire des grands enjeux et recommandations.
      • Co-construction et reddition de comptes : "Nous sommes convaincus que nous devons construire la technologie avec les citoyennes et les citoyens", en les formant, les consultant, et surtout en "rendant des comptes sur la manière dont leurs recommandations... sont pris en compte".
      • Didier Mino (Changer de Cap) sur l'IA dans les services publics (CAF) :
      • Problèmes de l'automatisation : Témoignage alarmant sur la dématérialisation à la CAF, générant "maltraitance institutionnelle" et "non accès au droit" pour les plus précaires.
      • Pratiques illégales/discriminatoires : Suspension de droits sans préavis, qualification d'erreurs en fraude, contrôles ciblés par algorithmes discriminatoires, absence de questions ouvertes dans les formulaires, complexité de la réglementation.
      • Perte de maîtrise technique : Les services informatiques ont perdu la maîtrise du code (Crystal, écrit en Cobol dans les années 90), entraînant des décalages avec la loi et des décisions inexplicables.
      • Conséquences humaines : "Graves conséquences pour la santé physique et mentale des personnes en difficulté", basculement dans la pauvreté, perte de sens pour les agents.
      • Injonctions politiques : Les réformes budgétaires (ex: aides au logement) ont provoqué des "catastrophes informatiques".
      • Appel à l'action : Actions en justice contre l'algorithme ciblant les contrôles sur les plus fragiles.
      • Solution : "Possibilité d'un libre choix des usagers dans leur mode de relation avec les services publics", et nécessité de transparence et dialogue.
      • Soasick Penico et Estelle Hary (Observatoire des Algorithmes Publics - ODAP) :
      • Transparence des algorithmes : Nécessité de visibiliser et de rendre transparents les algorithmes utilisés par l'administration, car ils sont "fondamentalement politique".
      • Non-neutralité des algorithmes : Les algorithmes ne sont "absolument pas des objets objectifs" mais résultent de "choix humain et institutionnel" (décision de déploiement, critères, ressources, prestataires privés).
      • Manque de documentation : Absence de panorama exhaustif des algorithmes, les administrations les documentent "très peu publiquement".
      • Inventaire citoyen : Création d'un inventaire de 72 algorithmes à partir de sources publiques, montrant un "très peu de transparence" et une évaluation rare (4% d'évaluations internes publiées).
      • IA et automatisation : L'IA est "l'arbre qui cache la forêt de l'histoire longue de l'automatisation du service public". Les systèmes critiques anciens (ex: calcul impôts) sont aussi importants dans le débat démocratique.
      • Transparence au service de la justice sociale : La transparence est un "outil au service d'autres individus et d'autres collectifs qui luttent pour la justice sociale, pour les droits humains, pour les droits des travailleurs et des travailleuses et pour la justice environnementale".
      • Lutte essentielle : Essentiel que la société civile s'empare du sujet de l'IA comme "partenaire de débat mais aussi comme contre-pouvoir fort", car "tout le monde est légitime à le faire" même sans connaissances techniques, car c'est un "sujet politique avant tout".
      • Gabrielle Dubois (Défenseur des Droits) :
      • Rapport sur l'IA et service public : Rappelle le rapport du Défenseur des Droits de novembre dernier sur les décisions administratives automatisées.
      • Enjeux clés : L'intervention humaine et la transparence sont cruciales.
      • Enjeu individuel : Respecter le principe constitutionnel de transparence et le rendre appropriable par les personnes concernées.
      • Enjeu collectif : Concrétiser l'obligation de publication des règles des traitements algorithmiques pour permettre la compréhension et la contestation.
      • Intelligibilité de l'administration : S'assurer que les agents comprennent le fonctionnement des outils qu'ils utilisent.
      • Recommandations : Respect des obligations de publication, consécration d'un "droit à l'explication des décisions individuelles administratives" (au-delà des IA à haut risque), et association des usagers du service public à tous les niveaux.
      • Thomas Peron (Professeur de droit) sur le service public coopératif :
      • Repenser les services publics par les communs : Réfléchir à la structure de pouvoir dans les services publics à travers les communautés.
      • Jury populaire : Le jury populaire est le seul cas où une décision publique est prise par des citoyens tirés au sort.
      • Numérique et démocratisation : Le numérique offre un accès à la décision et la possibilité de décider en temps réel, permettant une démocratisation des services publics.
      • Métier de citoyen : Le métier de citoyen devrait s'apprendre d'abord dans les services publics.
      • Démocratisation des services publics : La question de l'IA démocratique doit être accompagnée d'une réflexion sur la démocratisation des services publics.
      • Décentralisation radicale : Implique une "décentralisation radicale des lieux de pouvoir et des processus de décision" au plus près de la relation.
      • Sid Sako et Hélène Mazela (citoyens de la consultation Make.org) :
      • Convention Citoyenne sur l'IA : Proposition de lancer une convention citoyenne de l'IA pour embrasser tous les défis contemporains (écologie, équité, justice sociale, éducation, emploi, santé, éthique).
      • Prendre le temps de comprendre : Les citoyens n'ont jamais été vraiment consultés sur la numérisation. La convention permettrait de prendre ce temps pour aligner les enjeux informatiques et IA avec l'intérêt général.
      • Partager la responsabilité : Embarquer les citoyens, c'est partager la responsabilité des décisions futures, car le sujet n'est pas seulement technique mais politique ("quelle société voulons-nous ?").
      • Normes IA environnementales et RSE : Proposer la mise en place de normes IA environnementales et RSE (responsabilité sociale des entreprises) pour encourager des modèles économes (IA frugale), favoriser la transparence énergétique, intégrer les critères éthiques d'inclusion et d'accessibilité.
      • Souveraineté : Favoriser des protocoles de collaboration pour éviter la domination des IA internationales.
        1. Débat public sur l'IA et le travail
      • Thomas Fournaise (Nantes, organisateur salon Data IA) :
      • Transparence des décisions : Le problème de la transparence des décisions est antérieur aux algorithmes et à l'IA. Le numérique permet de mettre en évidence ce manque de transparence historique.
      • Responsabilité humaine : Les décisions de priorisation (ex: couples mariés vs. paxés) sont prises par des humains. "Il faut rendre l'IA éthique, moi ça pose un problème, c'est qu'on la rend humaine, on l'anthropomorphise et quelque part on se déresponsabilise."
      • IA comme outil : L'IA est un outil qui répond à des questions. L'importance réside dans "les questions qu'on lui pose, la manière dont on le pose".
      • Usage sociétal : L'enjeu est "quel usage sociétal on veut l'utiliser".
      • Marine André (Mère de famille et Designer d'IA) :
      • Risque d'anthropomorphisme : Confirme le risque de penser qu'il y a une personne derrière l'IA.
      • Éducation à l'IA : S'inquiète de l'absence d'éducation à l'usage de l'IA dans les lycées et le manque de formation à l'esprit critique des jeunes.
      • Laure Lucchesi (Ex-directrice Etalab) :
      • Obligations légales de transparence : Insiste sur l'importance de la transparence des traitements algorithmiques dans le service public et le rôle d'Etalab dans l'accompagnement des administrations.
      • Démantèlement des équipes dédiées : Regrette le démantèlement des équipes chargées d'accompagner les administrations sur ces questions éthiques.
      • Droit d'accès aux documents administratifs : Rappelle l'importance de ce droit, qui date de 1978, pour la société civile et les journalistes pour interroger la conception des algorithmes et la communication des codes sources.
      • Guilaine Giersau (Les Petits Débrouillards) :
      • Éducation et esprit critique : Souligne l'importance de l'éducation aux sciences et à l'esprit critique, surtout dans les territoires ruraux et d'Outre-Mer, malgré le manque de moyens.
      • Rôle des associations : Les associations jouent un rôle crucial dans cette éducation hors les murs de l'école.
      • Connaissance des entreprises : Nécessité que les entreprises comprennent aussi ces enjeux.
      • Cohérence des dispositifs : Manque de pérennité et de cohérence dans les dispositifs d'éducation numérique.
      • Urgence : L'approche démocratique est d'autant plus urgente au vu des événements mondiaux.
      • Didier Cornel (Juriste, institution publique belge) :
      • Problème non lié à l'IA : Quand la législation est appliquée, les droits sont plus faciles à octroyer avec les outils informatiques qu'sans. Le problème est le non-respect des règles existantes.
      • Obligation d'aide : Propose une obligation légale d'aide avec une obligation de résultat pour les personnes n'arrivant pas à accomplir les formalités.
      • Risques existentiels : Exprime sa "surprise et déception" face à l'absence de discussion sur les risques existentiels de l'IA, citant une probabilité moyenne de 10% de "fatale issue pour l'humanité" selon les spécialistes.
      • Volonté d'arrêter l'IA : S'étonne que la consultation citoyenne ait révélé une proposition d'arrêter l'usage de l'IA (49% pour, 39% contre) sans que cela soit plus discuté.
      • Franck Bataille (Président Loir et Cher Tech) :
      • Cafés IA sur les territoires : Témoigne du succès des "cafés IA" en Loir-et-Cher, ayant touché 300 personnes en 2024 et visant 1000 en 2025, notamment auprès de jeunes en décrochage scolaire.
      • Inclusion numérique : Son association, active depuis 10 ans dans la culture et l'inclusion numérique, a embrassé l'IA avec divers publics.
      • Patrick Allard (Ex-entrepreneur, citoyen) :
      • Souveraineté : Pose la question de la souveraineté face aux acteurs américains et chinois, et de l'action de la France.
      • Aziz Kizou (Fondateur iPublic) :
      • IA privées dans les industries de réseau : Interroge sur le "angle mort" des IA privées dans les industries de réseau (énergie, transport) qui, malgré leur taille, peuvent avoir un pouvoir systémique sur la vie des citoyens.
      • Cadre normatif insuffisant : En dehors du RGPD et de l'AI Act, il n'y a pas de cadre normatif suffisant pour contrôler ces plateformes.
      • Nationalisation ? : Se demande si la société civile sera suffisante ou s'il faudra envisager des nationalisations de plateformes IA.
      • Eden Carou (Data Scientist) :
      • Compréhension du fonctionnement : Une IA démocratique n'est efficace que si les citoyens comprennent son fonctionnement et ses enjeux.
      • Éducation et sensibilisation : L'éducation à l'IA, au-delà de sa dimension technique, doit concerner son interaction avec les individus et la société.
      • Étienne Brevet (Gouvernance des données, Agglomération du Pays Basque) :
      • Importance de la donnée : Insiste sur la qualité de la donnée qui alimente l'IA. "Aucun algorithme ne sera efficace si derrière la donnée qu'on récupère n'est pas bonne."
      • Masse de données : Réflexion sur les quantités astronomiques de données stockées et le faible pourcentage réellement utilisé.
      • Cadre réglementaire : Nécessité d'une réflexion sur le cadre réglementaire de la donnée.
        1. L'IA au travail : Impacts et Dialogue Social
      • Caroline Jeanmaire (Consultation Make.org) :
      • Urgence d'agir : 200 organisations de la société civile alertent sur l'urgence d'agir pour comprendre et prévenir les risques de l'IA pour le futur du travail.
      • Protéger concrètement les emplois : L'IA risque d'aggraver les inégalités. Solutions : observatoire international pour anticiper les bouleversements, accords d'entreprise innovants (ex: Volkswagen zéro licenciement IA), kit de protection des travailleurs (guides pratiques, normes surveillance humaine).
      • Développer formation numérique et esprit critique : Plateforme gratuite multilingue, laboratoires pour l'équité sur l'IA.
      • Investir dans les talents de demain : Accès inégal aux métiers de l'IA. Programme mondial de formations avec acteurs locaux, bourses, mentorat, soutien aux communautés sous-représentées.
      • IA au service de tous : "Agissons maintenant pour une IA au service de tous et pour réduire les inégalités au lieu de les creuser."
      • Eric Meyer (Conseiller CESE, syndicaliste) et Solidaire Finances Publiques :
      • Déploiement de l'IA à la DGFiP (Direction Générale des Finances Publiques) : Exemples du projet CFVR (ciblage fraude et valorisation requêtes) pour détecter la fraude fiscale.
      • Coût et efficacité : 34,5 millions d'euros, 52% des contrôles entreprises en 2022, mais seulement 13,6% des sommes récupérées.
      • Suppression d'emplois : "Gains de productivité" de 500 emplois, soit 1/4 des effectifs dédiés au contrôle fiscal.
      • Impacts sur les missions et conditions de travail :Réduction du périmètre de mission : Moins de lien avec le terrain, traitement prioritaire de listes générées par l'IA au détriment du reste.
      • Perte d'autonomie et de technicité : Travail "monotâche, très répétitif", plus de latitude pour les agents.
      • Erreurs de l'IA : Les agents passent du temps à justifier pourquoi des contrôles proposés par l'IA ne peuvent être engagés.
      • Pas de tâches plus intéressantes : 85,4% des agents estiment que l'IA ne permet pas de se consacrer à des tâches plus intéressantes.
      • Perte de sens au travail.
      • Opacité et absence de dialogue social : Déploiement "à marche forcée", absence totale d'information, de concertation, peu de formations. Bilans d'expérimentations non discutés.
      • Boîte noire et externalisation : Conception souvent externalisée à des cabinets privés, renforçant l'inexplicabilité.
      • Réinvention du syndicalisme : Utilisation de moyens juridiques (saisine CADA), partenariats (journalistes, chercheurs), alertes politiques, enquêtes internes. Obtention d'un comité éthique interne après refus de participation à l'externe.
      • Discours technocritique : Les agents doivent être systématiquement associés à la conception de leurs outils dans une démarche transparente.
      • David Gaborio (Sociologue) sur les ouvriers de la logistique :
      • Outil : la commande vocale (Voice Picking) : Logiciel dictant toutes les tâches via un casque et micro.
      • Bilan : Perte d'autonomie, intensification du travail (10 à 15% d'accélération), individualisation, hausse du contrôle.
      • Taylorisme moderne : Travail contraint, répétitif, physique, avec une "usure accélérée des corps". Explosion des accidents du travail et maladies professionnelles.
      • Manque d'anticipation et promesses déçues : Promesse d'un travail plus qualifié et libéré non tenue.
      • Contrôle inefficace : Les rapports de la CNIL sur la surveillance n'ont pas empêché une standardisation extrême du travail.
      • Discours sur l'automatisation : Produit des effets d'invisibilisation du travail et de perte de légitimité des ouvriers.
      • Très faible encadrement : Manque de contrôle citoyen et démocratique dans l'entreprise (ex: disparition des CHSCT).
      • Dominance des discours d'en haut : Très faible présence des discours des classes populaires.
      • Polarisation du travail : Les nouvelles technologies ne feront pas disparaître les métiers pénibles, mais entraîneront une "polarisation très forte" entre métiers qualifiés et classes populaires subissant les conséquences.
      • Eric Drouin (CNIL) sur la régulation :
      • Régulation : La régulation peut fonctionner, comme dans le cas d'Amazon Logistique France. Le RGPD est "pleinement d'actualité" et "très robuste" grâce à sa "neutralité technologique".
      • Mission de la CNIL : "L'informatique doit être au service de chaque citoyen. Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques."
      • Cas Amazon Logistique France : Amende de 32 millions d'euros (déc. 2023) pour un système de surveillance excessif (mesure interruptions, vitesse d'utilisation du scanner, conservation des données trop longue).
      • Pas de blocage de l'innovation : Le RGPD n'est pas une "loi bloc" mais un cadre qui "ralentit" les usages excessifs pour un développement cohérent avec les droits fondamentaux.
      • Principe de proportionnalité : Équilibre entre les objectifs de performance de l'entreprise et les atteintes aux droits et libertés fondamentales.
      • Garantie complémentaire : Le RGPD (et l'AI Act) est une garantie face aux dérives des technologies traitant massivement les données personnelles, notamment dans le secteur du travail.
      • Frank Fasalina Madinier (Avis à Bruxelles sur le management algorithmique) :
      • Démocratie et dialogue social : La démocratie au travail, c'est un dialogue avec les travailleurs, surtout quand ils sont impactés.
      • Rôle des syndicats : L'organisation collective est un "véritable contre-pouvoir" pour assurer que les outils se déploient de manière juste et choisie, sans supprimer ni aggraver les conditions de travail.
      • Management algorithmique : Ce phénomène se diffuse au-delà des plateformes uberisées.
      • Dialogue social renforcé : Nécessité d'un dialogue social renforcé, car les acteurs ne sont pas toujours préparés.
      • Réglementations adaptées : Les réglementations européennes existent mais ne sont pas toujours adaptées au monde du travail (ex: consentement dans le RGPD).
      • Transparence des algorithmes : Exigences de transparence (inspirées de la directive plateformes) devraient s'étendre à tous les travailleurs.
      • Négociation et discussion : Adapter la législation pour aider les acteurs du dialogue social à négocier et discuter ces questions.
        1. Échanges et Perspectives du Débat public
      • Christophe Moraux (FSU Emploi à France Travail) :
      • Faux libre choix de l'usage : Les objectifs inatteignables et la réduction des moyens conduisent à l'imposition de l'IA aux agents.
      • IA générative et réponses complexes : Les IA prenant en charge les tâches simples, les agents se retrouvent avec des cas exclusivement complexes, conduisant à une "surprécarisation des publics".
      • Normalisation des réponses : L'IA impose une normalisation des réponses complexes.
      • Exemple Match FT et ChatDoc : Outils de mise en relation et de recherche documentaire qui masquent le manque de moyens humains et le temps laissé aux agents.
      • Perte d'autonomie et de sens : L'IA conduit à une perte d'autonomie, de sens au travail et un contrôle accru.
      • Refus de participation : Refus de la direction d'inclure les syndicats dans le comité éthique externe de l'IA, nécessitant la création d'un comité éthique interne.
      • Margaux Prod (Traductrice, collectif En Chair et en Os) :
      • IA non neutre, insoutenable écologiquement, basée sur l'exploitation : Rappelle que l'IA n'est pas neutre, est gourmande en énergie et eau, et repose sur l'exploitation de travailleurs (clic, mine) dans le monde.
      • IA dans la traduction : la post-édition : Un "sabotage" des savoir-faire et une "ubérisation" des métiers. Consiste à corriger des textes générés par machine (souvent fautifs, lissés, standardisés) pour une rémunération 30 à 50% inférieure.
      • Absence d'intention humaine : Le texte généré manque "d'épaisseur intellectuelle" et d'intention artistique.
      • Opposition des artistes : La majorité des artistes-auteurs s'oppose à l'utilisation de leurs œuvres pour alimenter les logiciels d'IA, même avec compensation financière.
      • IA : pas un progrès : Pour la traduction, l'IA est une "automatisation désastreuse des métiers de la culture".
      • Alice Dragon (Indépendante, ex-interministérielle) :
      • Déficit de management : Souligne un "gros déficit de management" dans les ministères et administrations, antérieur à l'IA.
      • Invisibilité des 15 ans d'optimisation : Demande plus de visibilité sur les suppressions d'effectifs et l'optimisation numérique des 15 dernières années.
      • Opportunités de l'IA générative : Potentiel de "mobilité sociale extraordinaire" et d'accès à la formation pour la classe moyenne.
      • Valorisation des savoir-faire invisibles : Comment mieux valoriser les savoir-faire invisibilisés par l'IA.
      • France et régulation : Fière de la position française sur la régulation (ex: CNIL sur Amazon).
      • Expérience citoyenne et autonomie : L'embarquement des citoyens se fera si l'IA leur laisse "l'autonomie de mettre la techno à leur service et pas à l'autre sens".
      • Agnès de Tamarana (Unbias, Twisting) :
      • Implication des syndicats : Invite les syndicats à s'emparer des questions techniques de l'IA, car c'est une technologie "pas si compliquée à comprendre".
      • Exiger transparence : Exiger des registres algorithmiques, même si l'ingénierie passée n'a pas tout documenté.
      • Structuration des institutions : Les institutions et entreprises doivent se structurer pour gérer ces risques techniques.
      • Formation des salariés : Exiger une formation des salariés qui soit "interne" et non "poussée par les providers de solutions tels que Microsoft ou Google".
      • Combat dans les entreprises : Le "push commercial" des entreprises américaines attaque les entreprises européennes en leur faisant croire qu'elles manqueront une opportunité si elles ne s'équipent pas rapidement.
      • IA et augmentation collective : L'IA est formidable pour "augmenter une puissance collective, une action collective, un dialogue collectif, mais certainement pas au niveau individuel".
      • Sandra Lem (Indépendante, accompagnement entreprises) :
      • Course aux outils digitaux : Constat d'une "course aux outils digitaux" avec une mise en place en deux temps (dirigeant-travailleur, dirigeant-technicien) oubliant le lien "technicien-utilisateur final".
      • Manque d'accompagnement : Pas de temps pour les utilisateurs de changer leurs pratiques, entraînant isolement, surcharge de travail et perte d'intelligence collective.
      • Marc Malenfer (INRS) :
      • Dialogue social et prévention des risques : Le dialogue social est crucial en matière de prévention des risques professionnels.
      • Écoute des salariés : Rappelle le rapport du CESE (Assises du travail 2023) qui proposait d'ajouter l'écoute des salariés comme principe général de prévention.
      • Consultation des instances : Les dispositifs modifiant l'organisation du travail doivent faire l'objet de consultations des IRP et d'une expression directe des travailleurs.
      • Inégalité entre entreprises : Les petites entreprises sont "plus démunies" face à la pression commerciale des solutions IA.
      • Formation des développeurs : Nécessité de former les développeurs d'IA aux enjeux de santé au travail.
      • Arthur Talan (Doctorant en Philosophie) :
      • Non-neutralité de la technologie : Il y a un consensus philosophique sur le fait que la technologie n'est jamais neutre. L'IA ne peut être prise indépendamment de sa conception, de ses usages et de ses finalités.
      • Excuse de la neutralité : La promotion de la neutralité est une "excuse pour justifier le développement" de ces technologies et déresponsabiliser.
      • Responsabilités identifiées : Le développement de l'IA engage des responsables et des responsabilités qui doivent être bien identifiées.
      • Christophe Gernet (Radical Exchange) :
      • IA totalitaire vs. autres formes : L'IA n'est pas neutre, mais il existe d'autres manières de la développer que le modèle totalitaire.
      • Responsabilité du déploiement : Importance de la responsabilité dans le choix des projets IA.
      • Management algorithmique : Les managers se retrouvent aussi sous les ordres d'une IA.
      • Négociation collective des données : Milite pour que les données fassent partie de la négociation collective, car leur valeur n'est pas partagée.
      • Eden Carou (Data Scientist) :
      • IA et expertise : "L'IA n'a pas sa place partout" surtout sans collaboration avec les utilisateurs, car "une IA sans l'expertise, elle est une IA pourrie".
      • Dialogue professionnel : Nécessité d'un dialogue entre ceux qui utilisent l'outil et ceux qui le développent.
      • Quentin Pignon (Conseiller numérique) :
      • Web et émancipation vs. algorithmes de recommandation : Le web est émancipateur mais les algorithmes de recommandation invisibilisent le contenu non monétisable.
      • "Bullshitisation" du web : L'IA générative permet de multiplier les vidéos "bullshit" (influenceurs perte de poids, développement personnel), rendant le web "invivable" et plus difficile à repérer pour la vulgarisation scientifique ou artistique.
      • Dépendance et perte de repères : Les repères deviendront plus difficiles pour le travail de conseil numérique.
      • Antoine Lata (Étudiant en sociologie) :
      • Risque de l'arrêt : Qu'arrive-t-il si l'IA s'arrête ou ne fonctionne plus ?
      • Dépossession des savoirs : L'IA peut entraîner une dépossession des savoirs et une dépendance aux outils.
      • Marline de Banque (The Shift Project) :
      • Implications énergétiques et climatiques : Interroge sur les gigawatts et térawatts nécessaires pour l'IA et le numérique, et les nouvelles émissions de GES.
      • Pollution : Quels secteurs peuvent polluer moins pour permettre au numérique de polluer plus ?
      • Guilaine Giersau (Les Petits Débrouillards) :
      • Merci l'Europe : Remercie l'Europe pour ses valeurs digitales mais appelle à ne pas être naïfs.
      • Responsabilité sociale et environnementale : Insiste sur la responsabilité sociale et environnementale, notamment sur l'eau, l'énergie et la pression sur les travailleurs (plateformes, mineurs).
      • Consommateurs : Importance de la responsabilité du consommateur.
      • Connaissance et diffusion des savoirs : La connaissance est essentielle et la diffusion des savoirs est une priorité.
      • Fanny Legal (SNMI) :
      • Impact dans les Missions Locales : L'arrivée d'un "tout petit bout d'IA" depuis le 20 janvier dans les Missions Locales a des conséquences directes : impossibilité de travailler, l'outil devient un "écran" entre le conseiller et le jeune.
      • Manque d'accompagnement : Les collègues n'ont pas été accompagnés ni formés.
      • Sabine Vannek (Avocate, Docteur en droit) :
      • Souveraineté des données : Interroge sur la volonté de la Chine et des États-Unis de capter les données européennes et françaises, transformant l'Europe en "jumeau numérique", posant une "question essentielle de notre souveraineté" avant de s'engager dans la "course effrénée" à l'IA.
        1. Conclusion de la Matinée
      • Eric Meyer :
      • Livre Blanc du CESE : Rappelle la publication du livre blanc "Pour une intelligence artificielle au service de l'intérêt général", voté très largement par la société civile, avec 30 préconisations.
      • Questions clés : Les questions du débat recoupent les travaux du CESE sur la démocratie et la "prise" des travailleurs sur l'outil IA.
      • IA : un outil politique : L'IA n'est pas un outil comme les autres, mais "un outil très politique".
      • Enjeux pour les entreprises : L'IA n'est pas neutre, nécessite des investissements, peut faire perdre la souveraineté et le pouvoir de décision.
      • Impacts sur l'emploi : Suppression ou transformation du travail, inégalités femmes-hommes (métiers féminins potentiellement les plus impactés), intensification, perte de sens et de reconnaissance.
      • Recommandations : Discussions rapides entre partenaires sociaux et gouvernement pour un accord national interprofessionnel sur l'IA. Privilégier le dialogue social avant toute introduction d'IA en entreprise, avec études d'impact et grilles de maturité.
      • Régulation : La société civile doit faire plus et plus fort sur la régulation et l'encadrement pour éviter que la "bigtech" ou des "politico-financiers" imposent leur loi.
      • [Intervenant non identifié, conclusion intermédiaire] :
      • Vivacité de la société civile : L'ensemble des témoignages montre une "vivacité du monde de la société civile", une "lucidité" et une "expertise".
      • IA : un leurre ou un vivier d'énergie ? : L'IA peut être un leurre masquant des structures de pouvoir, mais en assemblée citoyenne, elle devient un "vivier d'énergie et de force indépassable".
      • Action citoyenne sur le pouvoir politique : L'IA mène à l'action citoyenne sur le pouvoir politique, car ce ne sont pas seulement les technologies qui sont politiques, mais les décisions et les actions.
      • Remerciements : Remerciements aux équipes du CESE et du CNNum.
      • Stéphane Brelman (Anthropologue du numérique) :
      • Regarder dans le détail : L'expérience montre qu'il faut regarder "dans le détail" ce que l'IA introduit au niveau du travail et des pratiques.
      • Ne pas craindre les aspects techniques : Comprendre les aspects techniques est essentiel pour intervenir.
      • Exemple de l'opérateur de centrale nucléaire : L'histoire de l'opérateur qui "sent dans le pif" sa décision illustre l'importance de comprendre les micro-décisions et les facteurs non explicites.
      • Manque d'études approfondies : Regrette le manque d'études approfondies sur les micro-décisions et les impacts concrets de l'IA.
      • Granularité détaillée : Nécessité de descendre à un "niveau de granularité très très très très détaillé" pour comprendre les enjeux et les impacts.
      • Tradition française d'analyse : La tradition française d'analyse des activités précises peut être exploitée pour l'IA.
      • Lever les craintes et fantasmes : Comprendre le détail permettra d'enlever "pas mal de craintes et de fantasmes".
      • Remerciements finals : L'ensemble des intervenants et organisateurs se remercient mutuellement pour la qualité des échanges et l'orientation des travaux futurs.
    1. Compte Rendu Détaillé : Défis de l'Environnement Numérique et de l'IA pour la Démocratie

      • Ce document de synthèse est une revue des principales thématiques, idées et faits marquants abordés lors de la table ronde "Vincent Champain, Gilles Babinet et Laurent Guimier sur les défis du nouvel environnement numérique", qui a eu lieu le 5 février. Les intervenants,

      • Vincent Champain (Observatoire du long terme),

      • Gilles Babinet (Conseil national du numérique) et
      • Laurent Guimier (CMA Média), ont partagé leurs analyses sur l'impact du numérique et de l'intelligence artificielle sur la démocratie, les menaces qu'ils représentent et les pistes de solutions.

      I. Constat alarmant : La fragilisation de la démocratie à l'ère numérique et de l'IA

      Les intervenants s'accordent sur un constat préoccupant : la démocratie est fragilisée dans ses fondements mêmes par le nouvel environnement numérique et l'intelligence artificielle.

      • Multiplication des manipulations et de la polarisation :
      • Le numérique a démultiplié la capacité de chacun à s'exprimer, ce qui est un progrès, mais a aussi "ouvert la porte à des phénomènes massifs de manipulation souvent invisible et très efficace des informations virales billets de diffusion propagande algorithmique fake news diffusé par des bots et ingérence étrangères à grande échelle".
      • Ces dérives ne sont pas anecdotiques et menacent la capacité des citoyens à former un jugement éclairé, condition essentielle d'un vote libre et informé.
      • Les algorithmes amplifient la colère, la peur, l'indignation, enfermant les individus dans des "bulles d'opinion".

      Laurent Guimier évoque "un moment atomique" où "nous sommes tous collectivement en capacité d'avoir entre les mains un moyen de destruction massive de la démocratie". * Impact sur le contrat démocratique et la cohésion sociale : * Le principe "une personne, une voix" est mis en danger par des systèmes où ceux qui paient ou trichent ont plus de poids. * La polarisation affaiblit la cohésion sociale, menant à "une société de plus en plus fracturée" et un "débat public de moins en moins rationnel". * Perte de confiance dans les institutions et augmentation des confrontations violentes, loin de l'échange d'idées apaisé que la démocratie est censée promouvoir. * Ingérences étrangères et guerre informationnelle : * Vincent Champain souligne "une multiplication des cas en France à l'étranger" et une "aptitude de plus en plus passive des grandes plateformes" face aux manipulations. * Gilles Babinet fait référence à la "doctrine Guerassimov", selon laquelle "pour le coût de un coût insignifiant le coût d'un tank je suis capable de déstabiliser un pays". Il met en garde contre une "2e génération de système de désinformation" avec des "systèmes automatisés, des robots", qui, si rien n'est fait, nous "submergeront". * Des exemples concrets sont cités par Michel Herbillon : l'annulation d'élections en Roumanie suite à une campagne d'ingérence russe, et la cyberattaque contre la campagne d'Emmanuel Macron en 2017 attribuée aux services de renseignement russes. * Vulnérabilités et défis de la régulation : * Le débat public est marqué par des "biais forts", et les algorithmes amplifient ce qui est "inquiétant, étonnant, outrancié". * Augmentation des dépressions, notamment chez les jeunes femmes. * Affaiblissement des médias d'information traditionnels et amplification de la production d'information trompeuse. * La régulation est complexe en raison de l'évolution rapide de la technologie, du caractère extraterritorial des plateformes et du modèle économique basé sur la "captation et la marchandisation de l'attention". Laurent Guimier souligne que "la régulation dans les réseaux sociaux elle est faite par des gens et des algorithmes dont l'intérêt n'est pas de faciliter le débat". * Difficulté à sanctionner les délits sans préjudice quantifiable (ex: diffusion de fake news) et à traiter les préjudices diffus. * L'anonymat, bien que parfois bénéfique pour la liberté d'expression (ex: Printemps Arabe), profite également aux "robots y compris à des rebots manipulés par des agents de l'étranger". * La cybercriminalité est un secteur à 1000 milliards d'euros de revenus, fournissant des "moyens logistiques aux manipulateurs" de désinformation.

      II. Les causes profondes de la fragilisation

      Les intervenants identifient plusieurs causes structurelles à cette fragilisation :

      • Le modèle économique des plateformes : "Le problème c'est pas les ingénieurs du chaos mais c'est ce qui rend ce chaos possible et surtout les raisons qui font que nos démocraties ont du mal à y résister." Les plateformes, dont le modèle d'affaires repose sur la publicité, ont "tout intérêt à accélérer tout ce qui va leur permettre de d'avoir un trafic supérieur", ce qui favorise la polarisation et la désinformation.
      • La rapidité des changements technologiques face à la lenteur des institutions : Laurent Guimier illustre cette idée en comparant l'expérience du lecteur de journal il y a 30 ans et celle d'aujourd'hui, radicalement différente, contrastant avec les quatre siècles précédents. Il évoque trois révolutions successives : le web, les réseaux sociaux (qui ont fait descendre les journalistes de leur piédestal) et l'IA (qui met l'humain en "concurrence frontale avec la machine").
      • Le manque de souveraineté numérique : Sophie Chikirou insiste sur la "propriété des moyens de production des moyens de diffusion de la propriété des moyens de stockage et de la propriété de la donnée", question essentielle de souveraineté. Guillaume Bigot déplore une "immense naïveté" face à la "colonisation numérique" américaine, soulignant que les plateformes imposent leurs conditions d'utilisation dictées par les intérêts des États-Unis.
      • L'absence de cadre clair et de mise en œuvre effective de la régulation : Gilles Babinet estime que des textes comme le DSA, le DGA ou l'AI Act "ne sont pas mis en œuvre, notamment pour des raisons politiques", par crainte de confrontation avec les États-Unis.
      • La difficulté à définir ce qu'est un média : Laurent Guimier souligne qu'aujourd'hui, "il n'y a pas besoin d'avoir une carte de presse pour être pour se dire journaliste pour créer un média", ce qui efface la frontière entre "information d'un côté" et "propagande de l'autre".

      III. Pistes de solutions et recommandations

      Le rapport appelle à une "prise de conscience urgente" et propose de nombreuses pistes pour "reformer la démocratie" :

      Repenser l'espace public numérique et renforcer la résilience démocratique :

      • Coercition accrue envers les plateformes : Gilles Babinet plaide pour être "beaucoup plus coercitif à l'égard des plateformes", avec des "amendes soient importante" pour contrer leur tendance à contourner les règles via l'"expérience utilisateur" (dark patterns).
      • Transparence et interchangeabilité des algorithmes : Gilles Babinet propose l'"interchangeabilité des algorithmes" pour permettre aux utilisateurs de choisir comment ils sont administrés sur les réseaux sociaux, un concept déjà mis en œuvre par Mastodon et Blue Sky.
      • Développement de "contre-plateformes" : Vincent Champain suggère la création d'une "contre-plateforme" au niveau européen, non pas par l'État, mais par un "consortium de médias", pour offrir une alternative respectueuse du débat.
      • Renforcement de la veille et de la détection : Augmenter les moyens de Viginum pour détecter et dénoncer les campagnes de désinformation. Vincent Champain propose également "un partage de de bonnes pratiques où on informe très très de façon très très rapide pendant le période électoral de des choses qui se font pour que sur ce sujet de la capacité à atteindre les gens on mette les les gens en égalité".
      • Outils de "testing" : Vincent Champain suggère de mettre en place des outils de testing statistique (ex: ouvrir 150 comptes d'utilisateurs) pour obtenir des informations précises sur ce qui est présenté aux différentes catégories d'utilisateurs.

      Remettre les citoyens au cœur du jeu démocratique, informés et armés :

      • Éducation aux médias et à l'esprit critique : Une proposition clé est d'élargir les missions des établissements scientifiques et des universités pour que "l'information via les réseaux sociaux... puisse davantage faire partie de leur mission pour que ce flux d'information correcte vérifiée puisse contrecarrer les flux deinformations". Des exemples de programmes efficaces en Finlande et en Suède sont cités.
      • Développer une "culture citoyenne" : Gilles Babinet insiste sur la nécessité que les citoyens participent à "contrer les opérations de désinformation" et développent un "niveau d'expertise plus ou moins élevé".
      • Réinventer les règles du débat numérique : Inspiré par l'histoire d'Internet dans les années 90, le rapport propose de réinventer une "étiquette" ou des "règles pour essayer de garder un peu de respect dans le débat numérique".

      Adapter les institutions et les outils juridiques :

      • Réflexion sur l'évolution de la démocratie en mode numérique : Vincent Champain évoque la difficulté des démocraties représentatives à écouter des catégories de personnes éloignées, suggérant que l'IA pourrait aider à faire des synthèses et identifier des signaux faibles.
      • Adaptation du cadre juridique : Le cadre juridique actuel est inadapté pour gérer les préjudices diffus ou punir des délits sans préjudice quantifiable.
      • Pseudonymat : Une proposition est le "pseudonymat", qui permet de "garder les bénéfices pour la liberté d'expression de l'anonymat tout en évitant de donner des protections à des robots manipulés par des trolls".
      • Régulation de la presse : Laurent Guimier plaide pour une "régulation de la presse" et une "capacité à authentifier à labelliser ce de ce qui est de l'ordre du média et de ce qui est de l'ordre de la de la propagande". Il propose une instance comparable à l'Ordre des médecins pour les journalistes.
      • Coopération public-privé : Laurent Guimier insiste sur la nécessité de dépasser l'opposition historique entre technologie et médias, et de faire coopérer les institutions et les acteurs privés pour "dompter la technologie". L'exemple de "alerte infox" sur le modèle de "alerte enlèvement" est cité.

      Développer la souveraineté technologique européenne :

      • Accès aux capitaux et unification des marchés : Gilles Babinet souligne que "l'unification des marchés des capitaux est indispensable si on veut réussir à lever des capitaux en quantité suffisante".
      • Développement de l'Open Source : Gilles Babinet y voit une "forme de gouvernance" et une "carte que l'Europe pourrait tout à fait jouer" face aux infrastructures opaques.
      • Utilisation des normes : Vincent Champain rappelle que les normes (ex: GSM) peuvent être un "outil très puissant" pour réduire la dépendance technologique.
      • Investir dans des initiatives comme Mistral AI ou Shō France : Ces entreprises françaises sont citées comme des exemples d'efforts pour développer une intelligence artificielle et promouvoir le pays.

      IV. Conclusion des intervenants

      Les intervenants concluent sur l'urgence d'agir et la nécessité d'une vision collective à long terme :

      Vincent Champain : Le débat est à ses débuts, et il est crucial pour la France et l'Europe "d'essayer d'être un peu en avance et de poser un peu les fagnons de la démocratie libérale avant que les trolls se soient emparés de la place".

      Laurent Guimier : Bien qu'il soit "trop tard pour notre génération", la responsabilité est de travailler pour les "trois prochaines générations" en les aidant à sortir de l'"immaturité logique" face à cette révolution. Cela passe par l'éducation et la confiance générée par la coopération entre médias et institutions.

      Gilles Babinet : Les systèmes institutionnels ne pourront pas ne pas évoluer face à l'IA. Il faut réfléchir à de "nouvelles formes d'institution de nouvelles formes de régulation", notamment en créant des "corps intermédiaires" de citoyens chargés de développer les algorithmes pour l'État. Il souligne que "les défendants ont un avantage sur les attaquants" car ils partagent l'information, ce qui leur permet de se renforcer plus vite.

      Enfin, il insiste sur la nécessité d'une "approche offensive" face à la désinformation.

  3. May 2025
    1. Briefing : Utiliser l'IA dans le monde associatif avec Yann Ferguson (LaborIA)

      Source : Extraits de "Parlez-moi d’IA #67 Utiliser l'IA dans le monde associatif avec Yann Ferguson (LaborIA)", podcast animé par Jean-Philippe Clément, avec la participation de Yann Ferguson, chercheur et sociologue, directeur du laboratoire Laboria.

      Contexte : Ce briefing est basé sur des extraits d'une table ronde organisée par la Maison de la Vie Associative et Citoyenne du 13ème arrondissement de Paris, abordant les enjeux, risques et bonnes pratiques de l'utilisation de l'IA dans le monde associatif.

      Yann Ferguson, spécialiste de l'IA dans le monde du travail, y a partagé son expertise.

      Thèmes Principaux :

      • Origines et évolution de l'Intelligence Artificielle (IA).
      • Impact de l'IA sur le monde du travail, notamment dans le secteur associatif.
      • La crise récurrente de l'intelligence face aux nouvelles technologies.
      • Avantages et risques de l'IA générative (ChatGPT) et l'émergence du "Shadow AI".
      • Alternatives aux grands modèles d'IA et l'importance de l'Open Source et de l'IA frugale.
      • Utilisation de l'IA dans l'éducation et le développement des compétences humaines.

      Idées Clés et Faits Importants :

      Définition et histoire de l'IA :

      L'IA est avant tout une discipline de recherche formalisée à partir du milieu des années 1950.

      Le terme "Intelligence Artificielle" a été choisi dès 1955 pour son pouvoir accrocheur et marketing, permettant d'attirer des financements.

      Les fondateurs avaient pour ambition de créer des machines capables de réaliser des tâches nécessitant des processus mentaux de haut niveau, jusqu'alors mieux réalisées par les humains (raisonnement, organisation de la mémoire, pensée critique, apprentissage perceptuel).

      Citation : "l'intelligence artificielle c'est une discipline de recherche avant d'être des outils et des applications qui... a commencé à se formaliser à partir de la deuxième moitié des années 50 donc 1950."

      Citation : "Ils cherchaient un terme assez accrocheur... un peu qui avait une dimension marketing assez forte." Deux approches historiques de l'IA : Initialement, deux grandes voies ont été explorées :

      L'imitation du raisonnement humain (IA logique ou symbolique) : reproduire les logiques des experts face aux problèmes. Cette approche a dominé jusqu'aux années 2000.

      L'imitation de l'apprentissage humain (apprentissage machine - machine learning) : fabriquer des machines qui apprennent à partir d'exemples, comme les humains. Cette approche a connu un renouveau important depuis 2010, notamment grâce à l'avènement du Big Data.

      Citation : "Le premier chemin consiste à imiter le raisonnement humain... La deuxième manière qu'ils ont imaginé c'est plutôt d'imiter le l'apprentissage humain."

      Citation : "depuis 2010 on connaît un renouveau de l'intelligence artificielle mais plus autour de l'approche de limitation du raisonnement humain bien plus autour de l'approche de limitation de l'apprentissage humain."

      Citation : "une des raisons pour lesquelles on a une accélération... ça a été le big data vous savez toutes ces données que l'on retrouve sur internet."

      L'apprentissage profond (Deep Learning) et le problème de la boîte noire : Le Deep Learning, un courant du machine learning, a permis d'obtenir d'excellents résultats (conversation, reconnaissance d'images) mais souffre d'un problème d'opacité dans son fonctionnement, appelé "problème de l'explicabilité et de la boîte noire".

      Citation : "un courant du machine learning qui est le deep learning l'apprentissage profond... avec un problème c'est que la façon dont la machine parvient à apprendre est assez opaque."

      IA et le monde du travail : L'IA s'inscrit dans la révolution informatique, aux côtés de l'intelligence augmentée (l'ordinateur comme outil d'assistance) et de l'intelligence distribuée (réseau, Web, intelligence collective). L'IA, ou intelligence automatisée, est la machine capable de raisonner seule.

      Citation : "l'intelligence artificielle elle prend place dans la dans la révolution informatique à partir des années 50 et autour de cette de ces nouvelles machines les ordinateurs il y a en fait trois promesses d'intelligence Il y a l'intelligence augmentée... l'intelligence distribué... la troisième l'intelligence artificielle qui était plutôt l'intelligence automatisée."

      Les cinq scénarios du futur du travail face à l'IA : Yann Ferguson a identifié cinq grands récits sur l'impact de l'IA sur le travail :

      • Le travailleur remplacé : la machine prend la place de l'humain.

      • Le travailleur dominé : l'humain est commandé par la machine ou dépend de plateformes sans protection sociale ("uberisation").

      • Les travailleurs divisés : apparition d'une classe de travailleurs pauvres avec des emplois peu intéressants et mal payés.

      • Le travailleur augmenté : l'IA libère l'humain des tâches répétitives, lui permettant de se concentrer sur des tâches plus créatives et relationnelles. Le travailleur réhumanisé : Recentrage de l'humain sur des tâches dignes de son humanité.

      Citation : "j'avais proposé cinq grandes directions à ce récit... Il y a évidemment le récit du travailleur remplacé... la deuxième le deuxième élément un peu dystopique aussi hein c'est le travailleur dominé... 3ème scénario négatif c'est ce que j'avais appelé les travailleurs divisés...

      Il y avait quand même deux scénarios beaucoup plus optimistes Il y avait le scénario du travailleur euh du travailleur augmenté... Après le dernier c'est ce qu'on appelle le travailleur réhumanisé."

      Le rôle essentiel du secteur associatif ("tiers secteur non marchand") : Jeremy Rifkin, dans les années 90, anticipait que le logiciel remplacerait de nombreux emplois, mais que le "tiers secteur non marchand" (l'associatif), essentiel pour vivre ensemble et non adressé par les logiques marchandes, prendrait une part importante de notre activité.

      Citation : "il y a plein d'activités dont on a absolument besoin pour vivre ensemble Et il a appelé ça le tiers secteur non marchand."

      Citation : "l'associatif c'est tout ce dont on a besoin pour vivre ensemble mais que le marché n'adresse pas."

      L'impact de l'IA générative (ChatGPT) : La sortie de ChatGPT en novembre 2022 a transformé l'usage de l'IA, passant d'initiatives majoritairement patronales à une adoption par les employés eux-mêmes ("Shadow AI"). Plus de la moitié des Français utilisant l'IA au travail le font sans l'accord de leur manager.

      Citation : "Lia générative ça change tout... Avant ChatGPT les études montraient que il y avait entre 1 et 10 % des Français qui pouvaient dire j'ai travaillé avec lire Voilà au moins une fois avec Chat GPT on a dépassé les 20 %."

      Citation : "on est beaucoup plus dans moi employé j'utilise chat GPT et c'est mon employeur qui veut pas mais je le fais quand même Voilà on appelle ça le shadow AI."

      La crise récurrente de l'intelligence face aux technologies : L'histoire montre une résistance récurrente aux nouvelles technologies de l'intelligence, de l'écriture (critiquée par Socrate) à l'imprimerie, la télévision, internet et Wikipédia, toutes accusées de "nous rendre idiot" ou de détruire le lien social. Cette crainte se manifeste aujourd'hui avec l'IA.

      Citation : "Qu'est-ce qu'une technologie de l'intelligence c'est un un artefact qui va intervenir d'une façon ou d'une autre dans nos raisonnements Et un artefact très noble extrêmement valorisé dans les universités c'est l'écriture."

      Citation : "on a eu différents moments de crise de l'intelligence en lien avec les technologies de l'intelligence L'imprimerie a été une crise dans l'intelligence majeure... Lorsque j'étais jeune c'était la la télévision hein qui était qui nous rendait idiot... internet non seulement devait nous rendre idiot mais aussi de mettre devait mettre fin au lien social... Wikipédia... lorsque Tiag GPT est arrivé on a dit il cite pas ses sources."

      Citation : "on a une espèce de crise récurrente de l'intelligence qui amène souvent à considérer que la nouvelle technologie l'intelligence ça nous rend idiot." Perte de facultés versus développement de compétences supérieures : L'utilisation de technologies de l'intelligence peut entraîner une perte de certaines facultés (ex: mémorisation avec les smartphones), mais la question est de savoir si cette perte permet de se déplacer vers des facultés cognitives supérieures (raisonnement, interprétation).

      Citation : "il y a toujours une perte de faculté euh lorsqu'on ne mobilise pas la compétence... Montigne nous dit il vaut mieux une tête bien faite qu'une tête bien pleine."

      Le risque de la médiocrité généralisée par l'IA générative :

      L'IA générative peut rendre un travail "moyen" accessible sans effort, ce qui est gratuit et peut satisfaire le marché (y compris associatif).

      Le risque est d'accepter cette médiocrité intellectuelle au détriment d'un travail de meilleure qualité. Les experts sont mieux placés pour utiliser l'IA pour aller au-delà de la moyenne.

      Citation : "l' générative dont on parle beaucoup de ce soir elle peut facilement rendre tout le monde moyen sans effort." Citation : "quand vous êtes très performant dans votre sujet et bien vous êtes finalement un bien meilleur utilisateur de lien." Citation : "l'escroquerie c'est de dire que tout le monde peut tout faire avec liagénérative Ça c'est le mensonge." Citation : "le risque c'est plutôt cette espèce de satisfaction générale pour des choses de médiocre qualité intellectuelle."

      Alternatives Open Source et IA frugale : Face aux grands modèles propriétaires (comme ChatGPT d'OpenAI), il existe des alternatives Open Source dont le code est public et modifiable. Des modèles spécialisés et "frugaux" (moins consommateurs de ressources énergétiques) sont développés, permettant d'installer l'IA localement sur son ordinateur (ex: LM Studio).

      Des acteurs comme Perplexity proposent des modèles qui citent leurs sources (même si la vérification reste nécessaire). Des initiatives françaises comme Playas entraînent des modèles Open Source sur des corpus de données transparents.

      Citation : "il y a une une troisième voix qui est en train de s'ouvrir... J'ai il y a un acteur qui je trouve fait un travail fantastique en France qui s'appelle Playas qui est un acteur qui qui entraîne ses modèles ce qu'on appelle en open source."

      Citation : "Les solutions commencent à émerger... il n'y a pas que les grands modèles générals qui sont après on va revenir peut-être à un moment donné mais qui sont très très consommateurs de ressources d'énergie On peut il y a il y a désormais une école de développement de l'IA qui est euh très frugal très spé spécial très spécifique à des sujets."

      Citation : "Open AI est une solution privée où on ne connaît pas la source... Et il y a plein de modèles qui sont open source c'est-à-dire que le code il est publié en ligne."

      L'éthique et l'écologie de l'IA : La course au "scaling" (augmenter l'échelle des modèles) des grands acteurs est très énergivore.

      L'IA frugale, qui se concentre sur des tâches spécifiques et minimise les ressources, est une approche plus responsable. Une spécification AFNOR sur l'IA Frugale existe pour guider les développeurs.

      Citation : "J'ai pas pu m'empêcher de faire mon petit coup de gueule sur l'usage des modèles généraux énormes et leur fabrication euh versus les petits modèles frugo et et open source."

      Citation : "vous avez une spécification de l'AFNOR donc vraiment un truc officiel quand même qui s'appelle IA Frugal et qui donne des méthodes aux gens qui développent sur l'IA pour s'interroger sur la manière de le faire de la manière la plus la plus frugale."

      Utilisation de l'IA comme outil d'amélioration dans l'éducation :

      L'exemple de l'utilisation de l'IA pour aider une lycéenne à améliorer son devoir montre comment l'IA peut servir non pas à faire le travail à la place de l'humain, mais à le perfectionner et à développer des compétences critiques.

      Citation : "on a plutôt essayé de voir comment Lia pouvait l'aider à faire mieux qu'à faire moins."

      Conclusion Principale :

      L'IA représente une évolution majeure de l'intelligence, inscrite dans une histoire longue de technologies qui ont suscité des craintes récurrentes.

      Son impact sur le monde du travail, y compris dans le secteur associatif, est multiforme, avec des scénarios allant du remplacement à l'augmentation et à la réhumanisation du travail.

      L'avènement de l'IA générative a démocratisé son usage, mais soulève des questions éthiques, écologiques et de qualité.

      Il est crucial de ne pas se limiter aux grands modèles propriétaires et de considérer les alternatives Open Source et les approches d'IA frugale.

      L'enjeu n'est pas nécessairement de "déléguer l'intelligence humaine à une machine", mais de comprendre comment l'IA peut être un outil pour améliorer et développer les compétences humaines, notamment en s'appuyant sur les forces relationnelles et créatives de l'humain, particulièrement importantes dans le monde associatif.

      Être un "bon utilisateur" de l'IA, capable d'interpréter et de contextualiser ses réponses, est essentiel.

    1. Compte-rendu : Ce que tout le monde se trompe sur l'IA et l'apprentissage – Explication de Derek Muller

      Ce compte-rendu analyse le discours de Derek Muller, créateur de la chaîne YouTube Veritasium, sur le rôle de l'IA dans l'éducation.

      L'orateur explore les attentes autour des "révolutions" éducatives induites par la technologie et propose une perspective basée sur les travaux de Daniel Kahneman et la théorie de la charge cognitive.

      Thèmes Principaux et Idées Clés :

      Les Promesses de Révolution Éducative et leur Échec Historique :

      Muller souligne que l'idée de la technologie révolutionnant l'éducation n'est pas nouvelle et qu'elle s'est manifestée à travers divers médias au cours du siècle dernier.

      Il cite des exemples comme le cinéma (Thomas Edison, 1922), la radio (années 1930), la télévision (années 1950), les ordinateurs interactifs (années 1980), les vidéodisques (années 1990) et les MOOCs (il y a environ 13 ans).

      Chacune de ces technologies a été présentée comme un moyen de transformer radicalement l'éducation, souvent en remplaçant les enseignants et en permettant une économie d'échelle.

      Citation Clé : "Clearly the expectation of a revolution is here but the truth is people expecting a revolution in education have been around for at least 100 years." (Clairement, l'attente d'une révolution est là, mais la vérité est que les gens s'attendent à une révolution dans l'éducation depuis au moins 100 ans.)

      Il utilise la citation de Thomas Edison sur le cinéma : "the motion picture is destined to revolutionize our educational system and in a few years it will supplant largely if not entirely the use of textbooks". (le cinéma est destiné à révolutionner notre système éducatif et dans quelques années il remplacera en grande partie sinon entièrement l'utilisation des manuels.)

      Il note l'ironie de ces prédictions, car les manuels existent toujours et ces technologies n'ont pas radicalement changé la structure fondamentale de l'éducation.

      Le Modèle Bicompartimental de la Pensée (Système 1 et Système 2) :

      S'appuyant sur les travaux de Daniel Kahneman dans "Thinking, Fast and Slow", Muller introduit les deux systèmes de pensée : le Système 1 (rapide, intuitif, automatique, basé sur la mémoire à long terme) et le Système 2 (lent, effort, délibéré, capable de traiter des informations nouvelles et complexes).

      Citation Clé : "in the book he's talking about our two systems of of thought that we've got two things two kinds of processes going on in our brains at one time the fast processes system one and slow processes system two". (dans le livre, il parle de nos deux systèmes de pensée, que nous avons deux choses, deux types de processus en cours dans notre cerveau en même temps, les processus rapides du système un et les processus lents du système deux.)

      Le Système 1 est associé à la mémoire à long terme et permet une reconnaissance rapide des motifs et des situations familières. Le Système 2 est limité en capacité de traitement (environ 4 éléments à la fois dans la mémoire de travail) et demande un effort cognitif.

      La Charge Cognitive : Muller décrit la charge cognitive comme la quantité d'effort mental investi dans une tâche. Il la divise en trois catégories :

      Charge Cognitive Intrinsèque : La difficulté inhérente à la tâche elle-même, liée à la complexité des nouveaux concepts.

      Charge Cognitive Extrinsèque : Les distractions et les obstacles qui détournent l'attention et l'effort cognitif (bruit, siège inconfortable, police illisible, accent).

      Charge Cognitive Pertinente (Germane Cognitive Load) : L'effort cognitif utilisé pour traiter l'information, l'intégrer à la mémoire à long terme et développer la compréhension en profondeur.

      Citation Clé : "this measure is known as cognitive load or another way of thinking of how much mental effort you are investing in something". (cette mesure est connue sous le nom de charge cognitive ou une autre façon de penser à la quantité d'effort mental que vous investissez dans quelque chose.)

      L'Importance de la Mémoire à Long Terme et du "Chunking" :

      L'expertise dans un domaine est expliquée par le développement d'une vaste structure de mémoire à long terme qui permet le "chunking" - la capacité de regrouper des informations disparates en une seule unité significative.

      Cela réduit la charge cognitive sur le Système 2 et permet de gérer des situations complexes.

      Citation Clé : "The more we get experience with things the more we practice the more we interact the more we use system 2 to uh work through problems the more we develop this long-term memory and that long-term memory allows us to chunk the things in our world". (Plus nous acquérons de l'expérience avec les choses, plus nous pratiquons, plus nous interagissons, plus nous utilisons le système 2 pour résoudre des problèmes, plus nous développons cette mémoire à long terme, et cette mémoire à long terme nous permet de "chunker" les choses dans notre monde.)

      L'exemple des maîtres d'échecs est utilisé : ils ne sont pas meilleurs pour retenir des positions aléatoires de pièces (qui ne peuvent pas être "chunkées"), mais excellent à retenir des configurations de jeu réelles grâce à leur expérience. Cela réfute l'idée d'une compétence générale de "pensée" ou de "résolution de problèmes" transférable à tous les domaines.

      Implications pour l'Éducation : En se basant sur ces concepts, Muller propose plusieurs implications pour une éducation efficace :

      Éliminer la Charge Cognitive Extrinsèque :

      Minimiser les distractions et optimiser l'environnement d'apprentissage.

      Limiter la Charge Cognitive Intrinsèque : Présenter de nouveaux concepts par petites étapes ("bite-sized"), en commençant par où se trouvent les étudiants et en introduisant un nombre limité de nouveautés par leçon.

      L'utilisation d'exemples travaillés ("worked examples") et un soutien progressif ("fading out") sont des stratégies efficaces.

      Encourager la Pratique Effortée Répétée pour Atteindre la Maîtrise : La pratique délibérée utilisant le Système 2 est essentielle pour construire la mémoire à long terme et automatiser les compétences (passer du Système 2 au Système 1). La maîtrise rend l'information accessible sans effort, libérant ainsi le Système 2 pour des tâches plus complexes.

      Augmenter la Charge Pertinente (Germane Load) : Engager activement le Système 2. L'exemple du test de réflexion cognitive imprimé en police illisible montre qu'une difficulté modérée peut forcer le Système 2 à s'activer et à trouver la bonne réponse.

      Le Rôle de l'IA dans l'Éducation : Potentiels et Préoccupations : Muller voit un rôle positif pour l'IA dans la fourniture de rétroaction rapide et personnalisée, essentielle pour l'apprentissage des compétences.

      Citation Clé : "I think the positive role that I see for AI is that it can provide timely feedback and that's essential when you are learning any skill". (Je pense que le rôle positif que je vois pour l'IA est qu'elle peut fournir une rétroaction rapide, ce qui est essentiel lorsque vous apprenez une compétence.)

      Cependant, sa plus grande préoccupation est le potentiel de l'IA à réduire la pratique effortée.

      Si l'IA peut faire le travail pour les étudiants (écrire des dissertations, résoudre des problèmes), cela pourrait les empêcher de développer les réseaux de mémoire à long terme nécessaires.

      Citation Clé : "the thing that I'm really worried about is how AI has this opportunity to reduce effortful practice". (ce qui m'inquiète vraiment, c'est comment l'IA a cette opportunité de réduire la pratique effortée.)

      Il s'inquiète de l'impact sur des compétences comme l'écriture ou le dessin si les étudiants s'appuient sur l'IA pour faire le travail à leur place.

      Pourquoi les Révolutions Éducatives n'ont pas eu lieu et pourquoi les gens n'apprennent pas toujours :

      Muller suggère que l'échec des révolutions technologiques vient du fait qu'elles se concentrent souvent sur la transmission de l'information, qui n'est pas le principal problème de l'éducation.

      L'information est déjà largement disponible (dans les livres, en ligne). Le véritable défi est d'amener les étudiants à s'engager activement et de manière répétée avec cette information.

      L'éducation est fondamentalement une activité sociale. Les enseignants jouent un rôle crucial en tant que "entraîneurs personnels" qui motivent, responsabilisent, créent une communauté d'apprenants et encouragent la pratique effortée.

      Citation Clé : "Education is it's a social activity you know people care about other people... I think that the tech hype comes from a place of believing that the problem of education is not being able to get the information to the student that's not the problem". (L'éducation est une activité sociale, vous savez, les gens se soucient des autres...

      Je pense que l'engouement pour la technologie vient de l'idée que le problème de l'éducation n'est pas de pouvoir transmettre l'information à l'étudiant, ce n'est pas le problème.)

      La raison pour laquelle certaines personnes ne retiennent pas des informations de base pourrait être liée à la façon dont nos cerveaux sont conçus pour se concentrer sur la survie et l'interaction sociale plutôt que sur les connaissances théoriques, surtout dans un monde rempli de distractions.

      Réponses aux Questions de l'Audience :

      Utilisation de l'IA pour les réponses :

      Si l'IA est fiable, l'utiliser pour obtenir des réponses peut être plus efficace que de chercher longuement dans les livres. Le temps passé à chercher ne garantit pas nécessairement un meilleur apprentissage si l'engagement cognitif n'est pas pertinent.

      Politique Éducative : C'est un domaine difficile à rechercher et à influencer. Il y a des preuves en faveur de l'enseignement directé et de la pratique effortée, mais leur mise en œuvre est complexe.

      Art et IA : Il est encourageant que certaines personnes créent de l'art pour le plaisir, mais il s'inquiète toujours de la perte potentielle de développement de compétences si l'IA fait le travail à la place de l'individu.

      IA et Système 2 : Il est préoccupé par le fait que l'IA puisse encourager l'utilisation excessive du Système 1 au détriment du Système 2, potentiellement réduisant la curiosité et la capacité à s'attaquer à des problèmes complexes.

      Scaling de l'Éducation : On ne peut pas "scaler" un entraîneur personnel ou un plombier.

      L'éducation de qualité nécessite un nombre suffisant d'enseignants qualifiés. C'est un problème structurel qui nécessite plus de ressources pour l'enseignement et la formation.

      Intégration de l'IA : L'IA peut être utilisée comme un outil de "drill and practice" et de feedback rapide. Le danger est quand elle remplace le travail efforté essentiel à l'apprentissage.

      Évaluation avec l'IA : L'IA pose un défi majeur pour l'évaluation.

      Il suggère de modifier les méthodes d'évaluation, potentiellement en faisant les devoirs sous surveillance ou en intégrant plus de questions d'évaluation fréquentes et actives pendant les leçons.

      Il insiste sur le fait que la pratique doit être intégrée au processus d'apprentissage, et si les étudiants ne pratiquent pas via les devoirs, cela se verra dans les examens.

      Éducation en Ligne vs en Personne : L'éducation en ligne peut exceller dans l'edutainment et l'excitation, mais elle ne remplace pas nécessairement la pratique effortée guidée par un enseignant dans un cadre social.

      L'apprentissage en ligne attire ceux qui sont déjà motivés ("self-select").

      Interaction Sociale avec l'IA : La question de savoir si une interaction avec une IA très réaliste pourrait compter comme une interaction sociale est posée, potentiellement répliquant les bénéfices d'un tutorat individuel.

      En résumé, le discours de Derek Muller soutient que l'IA, comme les technologies précédentes, ne révolutionnera pas l'éducation dans le sens d'une transformation structurelle fondamentale.

      L'apprentissage efficace repose sur la pratique effortée utilisant les ressources limitées du Système 2 pour construire une mémoire à long terme riche et permettre l'automatisation (Système 1).

      L'éducation est intrinsèquement sociale, nécessitant des enseignants pour motiver et guider.

      Si l'IA peut être un outil précieux pour la rétroaction et la pratique dirigée, son plus grand danger réside dans sa capacité à permettre aux étudiants d'éviter le travail difficile nécessaire à l'apprentissage profond.

      Le principal défi pour l'éducation à l'ère de l'IA est de trouver comment obliger les étudiants à s'engager dans cette pratique effortée, même lorsque la technologie peut offrir un raccourci.

  4. Feb 2025
    1. Voici un résumé minuté des idées fortes de la conférence de François Taddei sur les enjeux de l'IA pour l'éducation :

      • 0:04-1:35 L'IA impacte tous les pays et niveaux d'éducation, nécessitant une adaptation des systèmes de formation pour les jeunes, les étudiants, les professionnels et les enseignants.

      • 1:41-2:53 Les machines deviennent apprenantes grâce au machine learning, remettant en question ce que l'on doit apprendre, comment et pourquoi, et nécessitant une remise en question de nos systèmes éducatifs.

      • 3:00-3:36 L'IA a un impact plus fort que le numérique sur le marché du travail, faisant évoluer les professions intellectuelles, ce qui nous interpelle à différents niveaux.

      • 3:36-4:45 Le Festival Learning Planet a mis en évidence la nécessité d'enseigner différemment à l'heure de l'IA, en tenant compte de ce qui fait la spécificité des humains par rapport aux machines.

      • 5:02-6:00 Il faut apprendre au sujet de l'IA, comprendre son fonctionnement, ses limites et ses potentiels, ce qui est bien traité dans le supérieur avec des formations dédiées.

      • 6:12-7:23 Il faut apprendre grâce à l'IA, en utilisant des outils comme PhiloGPT pour faciliter les apprentissages, tout en développant les compétences propres aux êtres humains comme la coopération, la compassion et la créativité.

      • 7:23-8:40 Il faut développer des compétences essentielles comme l'expression orale, et mettre l'accent sur l'agentivité, c'est-à-dire le pouvoir d'agir et d'avoir un impact sur les collectifs.

      • 8:40-9:31 L'éthique doit être au cœur du système éducatif, car l'IA pose d'énormes questions éthiques.

      • 9:31-10:43 Il est essentiel d'intégrer les trois formes de connaissance selon Aristote : épistémè (connaissance du monde), technè (agir sur le monde) et phronesis (éthique de l'action).

      • 10:43-11:30 Il faut développer l'éthique dans nos programmes et notre capacité à penser, car l'intelligence sans conscience n'est que ruine de l'âme.

      • 11:30-12:16 Les enjeux éthiques sont de plus en plus nécessaires face aux logiques de puissance et d'impérialisme, et pour favoriser le vivre ensemble entre humains et entre espèces.

      • 12:16-14:06 Il est important d'accompagner l'arrivée de l'IA dans les établissements, de dissiper les oppositions et les a priori, et de fournir une formation adéquate aux enseignants.

      • 14:06-15:32 Il faut repenser les systèmes d'évaluation, développer l'esprit critique des élèves et les éduquer aux dangers potentiels de l'IA.

      • 15:32-16:20 Il est de notre devoir d'éducateurs et de citoyens de transmettre des attitudes critiques et constructives face à l'IA, et d'adapter l'éducation à la citoyenneté et aux médias à l'ère de l'IA.

      • 16:20-17:09 Il faut créer des communautés apprenantes et des dynamiques où ceux qui sont en avance partagent leurs connaissances et contribuent à faire évoluer les pratiques.

      • 17:09-18:05 Des modalités pédagogiques comme la classe inversée et l'oral sont adaptées à l'ère de l'IA, permettant d'évaluer les élèves dans un environnement accompagné.

      • 18:05-19:00 L'oral est essentiel pour évaluer l'apprentissage, et l'IA peut permettre de gagner du temps pour avoir un dialogue oral avec les élèves.

      • 19:00-20:03 Il est crucial de s'interroger sur l'évolution technologique et son impact sur nos rôles et nos missions en tant qu'enseignants, afin de mieux former les élèves.

      • 20:03-21:31 L'IA nous oblige à nous interroger sur nos pédagogies, le sens d'être un être humain et d'éduquer un être humain, et à résister aux nouvelles formes d'impérialisme et de domination.

      • 21:31-22:33 Le triptyque de Condorcet (démocratie, éducation, savoir) est toujours d'actualité à l'ère des fake news, et il faut se réinterroger sur nos intentions et éventuellement changer nos pratiques sans changer nos valeurs.

      • 22:33-23:31 Il faut avoir conscience que l'héritage des Lumières n'était pas le plus inclusif, et repenser l'universalisme dans un monde où la planète est menacée.

      • 23:31-24:33 La technologie n'est pas la solution par défaut, et il faut être vigilant face à la désinformation et développer l'esprit critique.

      • 24:33-26:05 Il est important de prendre du recul historique pour comprendre d'où l'on vient, où l'on est et où l'on va, et de repenser le vivre ensemble à toutes les échelles.

      • 26:05-27:01 Il faut s'interroger sur nos finalités et enseigner différemment l'histoire du vivant, de notre espèce et de notre culture.

      • 27:01-34:05 L'exemple de Grigny montre comment les compétences humaines et l'agentivité des élèves peuvent être des leviers pour relever des défis et devenir acteurs de leurs apprentissages.

      • 34:05-35:21 Il est essentiel d'articuler savoir et compétences, de créer des espaces de créativité pour les élèves et de dépasser les habitudes de travail collectives.

      • 35:21-36:42 Des initiatives comme Model UN peuvent être repensées à l'ère de l'IA pour aider les jeunes à comprendre la complexité du monde et les enjeux géopolitiques.

      • 36:42-39:22 L'IA peut aider à faire des synthèses dans les conventions citoyennes et à augmenter les débats, en trouvant des sources et en faisant des synthèses locales et internationales.

      • 39:22-41:34 Il est important de prendre en compte la déclaration de la jeunesse sur l'avenir de l'éducation et de coconstruire l'avenir avec les jeunes, en ne prenant plus de décisions qui ne soient pas dans l'intérêt des générations futures.

      • 41:34-43:55 Il faut faire passer à l'échelle les actions qui permettent un vrai dialogue intergénérationnel et de prendre des décisions dans l'intérêt des générations futures.

      • 43:55-45:32 Il est important d'inviter les jeunes à utiliser l'IA dans un cadre défini, de dialoguer avec eux et de réfléchir sur le sujet, et de créer un collectif pour avancer ensemble.

      • 45:32-47:02 Il faut créer des chartes et des règlements intérieurs qui soient des lieux de débat démocratique, et avancer avec bienveillance en admettant que l'on ne sait pas tout.

      • 47:02-48:31 Il est important d'utiliser des IA éthiques et de confiance, comme Mistral AI, et de privilégier les modèles open source qui peuvent être installés sur des serveurs locaux.

      • 48:31-51:18 Des initiatives comme Phil GPT montrent comment l'IA peut être utilisée pour dialoguer avec différents philosophes et faciliter l'évaluation personnalisée.

      • 51:18-53:00 Il est important de dialoguer avec les collègues qui sont méfiants vis-à-vis de l'IA et de prendre le temps de voir ce qu'elle peut apporter ou pas à la création artistique.

      • 53:00-56:23 Il faut raison garder, expérimenter certaines choses, mais ne pas tout remplacer, car l'interaction avec la matière reste essentielle pour développer le sens artistique.

      • 56:23-58:04 Il est important de prendre en compte les inégalités sociales et l'accès aux outils numériques, et de voir comment l'IA peut être un levier pour réduire ces écarts.

      • 58:04-59:26 Il faut être pragmatique et comprendre les besoins de chaque élève, et éventuellement mutualiser les équipements ou utiliser les smartphones dans un cadre pédagogique.

      • 59:26-1:00:51 Il est important de prendre en compte les difficultés d'accès à internet à la maison et de s'adapter aux besoins de chaque élève.

      • 1:00:51-1:04:27 Il est essentiel d'agir sur la fracture liée à l'IA et de prendre en compte les disparités sociales et de compétences, en donnant une place plus importante à l'humain et à l'agentivité des élèves.

      • 1:04:27-1:06:19 Il faut aller au-delà de la prise en main des outils et transformer l'école, en personnalisant les apprentissages et en s'adaptant aux spécificités de chacun.

      • 1:06:19-1:08:59 Il est important de créer de l'intelligence collective pour réfléchir à la mise en place de chartes et de mobiliser les éducateurs, les parents et les jeunes.

      • 1:08:59-1:11:13 Il est essentiel de coconstruire les chartes et de faire communauté autour d'un document socle, en s'inspirant des modèles existants et en adaptant l'IA aux besoins de chacun.

    1. Pour un document de synthèse pour un briefing, en utilisant les sources à disposition, on peut tirer les informations suivantes d'une présentation de Laurence Devillers sur l'intelligence artificielle:

      • Démystification de l'IA : L'IA est avant tout de l'imitation à partir de données. Certains la comparent à un simple outil, mais il est crucial de comprendre qui contrôle cet outil et les risques sous-jacents. L'objectif est de démystifier l'IA pour éviter les fantasmes et les peurs, tout en reconnaissant les risques et les opportunités.

      • Éducation et compréhension de l'IA : Il est essentiel d'éduquer et d'enseigner les concepts fondamentaux de l'IA, même sans apprendre à coder, afin de permettre à chacun de comprendre comment ces machines fonctionnent et de garder la faculté de décider. Cette éducation doit commencer dès l'école primaire pour démystifier l'IA auprès des jeunes, de leurs parents et des professeurs.

      • Applications et risques de l'IA émotionnelle (Affective Computing) :

        • L'affective computing vise à détecter les émotions humaines à travers le visage, la posture et la voix. Ces informations peuvent être utilisées pour adapter les interactions homme-machine, par exemple, avec des robots assistants pour personnes âgées.
        • Il est crucial de comprendre la complexité des émotions et les différences culturelles dans leur expression. L'utilisation de ces technologies nécessite une éthique rigoureuse pour garantir la dignité de la personne et éviter la manipulation.
        • Les émotions sont complexes et peuvent être un mélange de sentiments positifs et négatifs. La technologie actuelle n'est pas suffisamment mature pour être utilisée sans discernement.
      • Réflexion éthique et collective sur l'IA :

        • Il est nécessaire d'avoir une réflexion collective sur l'utilisation de l'IA, en considérant les dépendances potentielles et les implications sur la dignité humaine.
        • Les principes éthiques tels que la vie privée, le consentement, la transparence, la responsabilité, la dignité et la justice doivent guider le développement et l'utilisation de l'IA.
        • Il faut réglementer et normaliser la relation avec les objets numériques, en tenant compte des différences culturelles et des risques de manipulation émotionnelle.
      • Projections et qualités morales : Les humains ont tendance à projeter des connaissances, des affects et des qualités morales sur les machines, ce qui peut être trompeur. Il est important de comprendre que les qualités morales d'une IA dépendent des données avec lesquelles elle a été entraînée.

      • Évolution de l'IA : L'IA a connu des avancées significatives, notamment avec le deep learning et les transformers. L'émergence de Chat GPT a marqué une étape importante, mais il est essentiel de démystifier ces machines et de comprendre leurs limites.

      • IA prédictive vs. IA générative : L'IA prédictive discrimine entre les formes en apprenant leurs différences, tandis que l'IA générative crée de nouvelles formes. Les IA génératives sont entraînées en auto-supervision, sans nécessiter d'annotations manuelles.

      • Enjeux éthiques majeurs :

        • L'absence de véracité des résultats et de sources est un problème majeur. Il est crucial de mettre en place des mécanismes de traçabilité et de transparence.
        • La manipulation émotionnelle possible est un risque important, notamment dans le contexte du métavers et de la réalité virtuelle.
        • Les biais cognitifs et émotionnels peuvent influencer notre perception de l'IA et nos décisions.
      • Importance des normes et de la régulation : Il est essentiel de mettre en place des normes et des réglementations pour encadrer le développement et l'utilisation de l'IA, en s'alignant sur les lois existantes. L'Europe doit jouer un rôle actif dans l'élaboration de ces normes pour garantir la souveraineté technologique et le respect des valeurs éthiques.

      • Vulnérabilité et acculturation : Il faut comprendre que nous sommes tous vulnérables face à ces machines et qu'une acculturation à ces objets est nécessaire. Cela passe par la démystification, la compréhension des concepts et la confiance dans l'intelligence collective.

      • Limites des modèles actuels : Les modèles actuels d'IA, comme Chat GPT, ont des limites en termes de compréhension de l'espace, du temps et des intentions. Ils peuvent produire des erreurs et des incohérences, et sont influencés par la prédominance de l'anglais dans les données d'entraînement.

      • Éducation à l'esprit critique : Il est crucial d'éduquer les enfants à l'esprit critique et à la remise en question des sources d'information. Il faut leur apprendre à déconstruire les informations produites par les machines et à comprendre les biais potentiels.

      • Loi, normes et éthique : Les trois piliers pour une utilisation responsable de l'IA sont la loi, les normes et l'éthique. L'éthique ne consiste pas à dire ce qui est bien ou mal, mais à réfléchir aux conséquences et aux risques.

      La présentation souligne l'importance d'une approche équilibrée et informée de l'IA, en mettant l'accent sur l'éducation, la réflexion éthique et la régulation pour garantir que ces technologies soient utilisées de manière responsable et bénéfique pour la société.

    1. Pour un document de synthèse pour un briefing, en utilisant les sources à disposition, on peut tirer les informations suivantes d'une table ronde intitulée "IA et Santé | "Prévention en santé : comment l'IA change la donne ?"":

      • Contexte et Objectifs : La table ronde vise à faire le point sur l'utilisation de l'intelligence artificielle dans le domaine de la santé, en particulier dans la prévention.

      Elle examine le potentiel croissant des solutions technologiques, les perspectives prometteuses qu'elles offrent, et leur valeur ajoutée pour les patients.

      • Participants et leurs expertises :

        • Dr. Xavier à la Coque : Médecin anesthésiste réanimateur, spécialiste des données, et directeur des datas de l'Institut Universitaire du Cancer de Toulouse Oncopole. Son travail actuel est d'implémenter l'entraînement d'algorithmes sur les données de santé.

      Il s'intéresse à la médecine prescriptive, cherchant à utiliser l'IA pour éviter la décompensation des patients et préserver leur capital santé.

      *   **Dr. Guillaume Bataillon** : Médecin pathologiste à l'Oncopole de Toulouse, spécialisé en pathologie mère et gynécologique, impliqué dans l'implémentation d'algorithmes dans la gestion des données de sa spécialité. Il examine au microscope les tissus prélevés sur un patient pour établir un diagnostic et orienter le choix de traitement.
      
      *   **Carole Ziza Gara** : Dirigeante de l'entreprise télégraphique, spécialisée dans les solutions connectées intelligentes et innovantes pour le bien-vieillir. Son entreprise analyse intelligemment les données pour le "Smart care", proposant des solutions aux personnes souhaitant rester à domicile le plus longtemps possible.
      
      *   **Dominique Pont** : Directeur général autonomie et santé du groupe La Poste, en charge du développement des services de confiance numérique en santé. Il souligne l'importance de la souveraineté des algorithmes et des technologies en santé.
      
      • Facteurs favorisant l'introduction de l'IA en médecine : L'augmentation des données disponibles (notamment grâce à la numérisation des images microscopiques), l'augmentation de la puissance des processeurs, et les avancées dans les algorithmes.

      • Exemple d'application de l'IA en pathologie : Collecte de lames de prélèvements de col utérin dans toute la France pour constituer une base de données anonymisée, annotée par des pathologistes, et mise à disposition d'équipes d'ingénieurs pour développer des algorithmes de classification.

      • Objectifs de l'IA en pathologie : Améliorer l'efficacité, la reproductibilité, et la fiabilité des diagnostics, ainsi que potentiellement découvrir de nouveaux biomarqueurs pour adapter la prise en charge des patients.

      • IA comme assistance au diagnostic et au traitement : L'IA est vue comme une aide précieuse pour la récupération et la consolidation d'informations médicales issues de la littérature scientifique. Les algorithmes sont performants pour les tâches répétitives, mais la prédiction de la réponse à un traitement est plus complexe et nécessite des essais cliniques.

      • Médecine prescriptive : L'IA est envisagée pour une médecine proactive, visant à préserver le capital santé et à éviter la décompensation, notamment dans les maladies chroniques. Cela implique une personnalisation des prescriptions basée sur les données du patient, incluant la génétique, la biologie, et l'évolution des données dans le temps.

      • Défis et enjeux :

        • Protection des données : Nécessité de garantir la sécurité et la confidentialité des données de santé, en les gardant dans le système de soins et en empêchant leur utilisation contre les patients.

        • Éthique de l'IA : Importance de préserver l'éthique et de s'assurer que l'IA ne soit pas vulnérante, en évitant toute utilisation des données qui pourrait nuire aux patients.

        • Maintien à domicile des seniors : L'IA est envisagée comme un complément à l'accompagnement humain pour aider les seniors à rester à domicile plus longtemps, en détectant les chutes et les activités anormales.

        • Souveraineté technologique : Nécessité de maîtriser les plateformes technologiques pour garantir un contrôle éthique du système de santé, en développant une alternative européenne aux géants américains et chinois.

        • Limites de la puissance de calcul : Face à la course à la puissance de calcul imposée par les modèles d'IA américains et chinois, il est suggéré de se concentrer sur des modèles plus ciblés et de qualité, adaptés aux besoins spécifiques de la santé, en privilégiant l'éthique et la maîtrise des données.

        • Interopérabilité des systèmes : Nécessité d'améliorer l'interopérabilité des systèmes d'information de santé pour faciliter l'échange de données et la coordination des soins.

        • Explicabilité et biais des algorithmes : Importance de comprendre comment les algorithmes prennent leurs décisions et de contrôler les biais potentiels, en mettant en place une "garantie humaine" de l'IA.

      • Applications potentielles de l'IA dans le diagnostic : Radiologie, dermatologie, échographie, endoscopie, neurologie (détection de maladies dégénératives et de crises convulsives), pneumologie (maladies chroniques).

      • Jumeaux numériques : Utilisation de jumeaux numériques pour tester des algorithmes et simuler des scénarios, permettant de valider les modèles d'IA de manière plus efficace.

    1. table ronde ministérielle de haut niveau intitulée "L'IA en éducation : quel cadre pour quels usages ?".

      • Contexte de la table ronde :

      La table ronde s'est tenue en marge du Sommet pour l'Action sur l'intelligence artificielle et a été ouverte par la ministre d’État, ministre de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche et la Commission européenne.

      L'événement a exploré le cadre d’usage de l’IA en éducation selon diverses approches, notamment celles de l'OCDE, de l'UNESCO, et du Conseil de l’Europe.

      • Participants : Des représentants des États membres de l’UE et des chercheurs ont participé pour présenter leurs bonnes pratiques en Europe et dans le monde.

      La Première ministre Élisabeth Borne a pris la parole pour l'ouverture de la conférence.

      • Consultation nationale sur l'IA dans l'éducation :

      Une consultation nationale a été lancée en janvier 2025 pour recueillir les points de vue de la communauté éducative (professeurs, personnel de direction, parents, lycéens) sur l'usage de l'IA dans l'éducation.

      Un cadre d'usage sera finalisé et diffusé au printemps, précisant les conditions d'utilisation de l'IA dans les classes et dans le domaine administratif, tout en définissant des règles claires pour les élèves.

      • Formation des enseignants :

      Une première formation en ligne pour le second degré sera lancée dès la rentrée 2025, basée sur un parcours Pix.

      • IA générative au service du ministère :

      Un outil s'appuyant sur l'IA générative, inspiré du projet Cassandre de l'académie de Lyon, a été déployé pour aider les gestionnaires RH en prenant en charge les tâches administratives et réglementaires. Cette initiative sera généralisée à l'ensemble des académies.

      • Initiative pour une IA souveraine :

      Un appel à projets doté de 20 millions d'euros de France 2030 sera lancé à l'été 2025 pour concevoir une IA ouverte, transparente et pérenne, dédiée aux professeurs pour la préparation des cours, la correction des devoirs et l'enrichissement de leurs pratiques.

      • Enjeux de compétitivité et de compétences :

      L'IA est considérée comme un élément clé de la boussole de compétitivité présentée par la Commission européenne.

      Il est nécessaire de préparer les Européens aux changements d'un monde numérisé, en maximisant les opportunités de la transition numérique tout en maîtrisant les risques.

      • Formation et compétences en IA :

      Les efforts doivent favoriser les compétences de base ainsi que les compétences spécialisées en IA.

      Les enseignants devraient recevoir une formation pour savoir comment, quand et pourquoi utiliser les outils de l'IA.

      La Commission européenne a publié des lignes directrices sur l'utilisation éthique de l'IA dans l'éducation en 2022, qui seront révisées.

      • Coopération européenne :

      L'accès universel à l'éducation numérique est favorisé, et l'IA est identifiée comme un sujet stratégique nécessitant une coopération étroite entre les États membres et la Commission.

      De nombreux États membres ont lancé des plans d'action et des initiatives qui peuvent nourrir le partage d'expérience à l'échelle de l'Union européenne.

      • Union des compétences :

      L'Union des compétences comprendra un plan d'action pour aider les États membres à renforcer le développement des compétences numériques de base.

      Les compétences numériques doivent s'acquérir dès la petite enfance et tout au long de la vie, en renforçant la coopération entre tous les secteurs de l'éducation.

      • Plan stratégique pour l'enseignement des STEM :

      Un plan stratégique pour l'enseignement des sciences, de la technologie, de l'ingénierie et des mathématiques (STEM) sera mis en place, intégrant les enjeux liés à l'IA.

      • Feuille de route pour l'éducation numérique :

      La revue en cours du plan d'action pour l'éducation numérique et de la feuille de route pour l'avenir de l'éducation et de la formation numérique, d'ici fin 2025, préparera des propositions sur l'utilisation efficace et éthique de l'IA dans l'éducation et la formation, ainsi que des actions de soutien aux États membres.

      • Expérimentation et contrôle qualité :

      Les services numériques innovants seront d'abord testés à petite échelle avant d'être déployés nationalement, en contrôlant la qualité et en respectant un cadre éthique et juridique.

      Le partenariat d'innovation intelligence artificielle permet la mise à disposition de services numériques en français, notamment pour la lecture, l'écriture et les mathématiques.

      Ce briefing donne un aperçu des discussions et des initiatives en cours concernant l'intégration de l'IA dans le système éducatif.

      Il met en évidence l'importance d'un cadre éthique, de la formation des enseignants, et de la coopération internationale pour exploiter pleinement le potentiel de l'IA au service de l'éducation.

  5. Jan 2025
    1. Briefing Doc: L'IA Générative au service de la recherche de financements

      Source: Webinaire Solidatech - "L'IA Générative au service de votre recherche de financements", 17 janvier 2025. Intervenants: Solidatech, Latitudes (programme IA for Good), Wavestone.

      Lien: https://www.youtube.com/watch?v=ZP4BMjrXESI

      Thèmes Principaux:

      Introduction à l'IA générative et ses applications pour les associations.

      Présentation d'un cas pratique: la génération automatisée de dossiers de demandes de financement.

      Démonstration de l'utilisation d'un agent conversationnel (chatbot) personnalisé avec Custom GPT d'OpenAI.

      Bonnes pratiques et conseils pour une utilisation responsable et efficace de l'IA.

      Points Clés:

      L’IA générative, un outil puissant pour les associations: L'IA générative peut aider les associations dans divers domaines:

      Marketing et communication : Génération de contenu pour les réseaux sociaux, création de supports de communication.

      Gestion de projet: Synthèse de documents, rédaction de comptes rendus.

      Tâches administratives : Automatisation de tâches répétitives, aide à la rédaction de documents complexes.

      Cas pratique : Génération de dossiers de demande de financement: Le webinaire se concentre sur l'utilisation de Custom GPT pour automatiser la rédaction de dossiers de financement.

      Custom GPT : Un service d'OpenAI permettant de créer des agents conversationnels personnalisés en intégrant des documents spécifiques.

      Avantages : Réponses plus précises et fiables, gain de temps.

      Fonctionnement : L'utilisateur fournit des documents à l'agent (informations sur l'association, le projet, le formulaire du bailleur) qui les utilise pour répondre aux questions.

      Démonstration : Les intervenants montrent comment configurer l'agent, lui fournir des documents et interagir avec lui pour obtenir un dossier de financement complet.

      Bonnes pratiques pour une utilisation responsable: Confidentialité des données:Anonymisation:

      Il est important de supprimer ou de masquer les données personnelles sensibles avant de les fournir à l'agent.

      Politique de OpenAI: OpenAI affirme ne pas utiliser les données fournies pour entraîner ses modèles, mais il est important de rester vigilant.

      Impact environnemental: L'utilisation de l'IA a un impact environnemental.

      Il est important de l'utiliser de manière raisonnée en minimisant le nombre de requêtes.

      Rôle de l'humain: L'IA doit être utilisée comme un assistant et non comme un remplaçant.

      Il est crucial de relire, corriger et valider le contenu généré par l'IA.

      Citations:

      "L’intelligence artificielle ça va être finalement tous les systèmes qui sont capables de prédire des situations ou de générer des nouveaux contenus en s’appuyant sur des données passées."

      "On a utilisé un algorithme chat GPT mais c’est un service qui est un peu un chat GPT amélioré à savoir le service custom GPT."

      "Pour les personnes qui sont frileuses [face à l'IA] c’est aussi fait pour qu’on puisse vous expliquer comment l’utiliser de manière responsable et sécurisée."

      "L’idée c’est de pouvoir personnaliser un besoin [avec Custom GPT], chose que chat GPT pourrait avoir des limites."

      "L’important sur les documents, il faut comprendre que l’IA se base sur les données. Sans données on peut rien faire."

      "Dès qu’il y a des informations par rapport aux données personnelles, par rapport à ce que vous jugez sensible, vous pouvez les masquer."

      Ressources:

      Articles de Solidatech :

      L'intelligence artificielle : de quoi parle-t-on et quel est l'intérêt pour votre association ?

      L'automatisation des tâches.

      Programme IA for Good de Latitudes: Newsletter, webinaires, sessions de conseil avec des spécialistes.

      Contact : Sandrine (Solidatech) - [adresse email] - pour un accompagnement personnalisé sur la recherche de financements.

      Conclusion:

      L'IA générative représente un outil puissant pour les associations, notamment pour les aider dans leur recherche de financements.

      Cependant, il est important de l'utiliser de manière responsable et éthique en gardant à l'esprit les questions de confidentialité des données, d'impact environnemental et du rôle de l'humain.

      Le programme IA for Good et les ressources de Solidatech peuvent accompagner les associations dans la découverte et l'utilisation de ces technologies.

    2. Ce webinaire de Solidatech, en partenariat avec Latitudes, Share It, et Wavestone, présente l’IA générative et son application concrète à la recherche de financements pour les associations.

      Il explore les principes de l’IA générative, notamment l’utilisation d’un GPT personnalisé pour créer des demandes de financement.

      Une démonstration pratique est offerte, suivie d’une session de questions-réponses.

      Le programme IA for Good est également présenté comme une ressource d'accompagnement.

      Enfin, des conseils pratiques et des ressources supplémentaires sont fournis aux participants.

      Voici un sommaire minuté du webinaire « L’IA générative au service de votre recherche de financements » d’après la transcription :

      • 0:00-1:10 Introduction et consignes :

      Présentation du webinaire, consignes pour poser des questions via l’onglet Q&R, consignes pour utiliser le chat pour des échanges informels et pour partager des liens.

      • 1:10-5:20 Présentation de Solidatech:

      Camille présente Solidatech, une association qui aide les autres associations à maximiser leur impact grâce au numérique en leur facilitant l’accès à des logiciels et du matériel à prix réduit.

      Elle détaille les actions de Solidatech, leurs solutions en ligne et les services qu’elles proposent, tels que des ressources gratuites, des outils d’autodiagnostic, des webinaires, des formations et un annuaire de prestataires.

      • 5:20-7:52 Présentation du programme IA for Good:

      Karen présente IA for Good, un programme gratuit destiné aux structures de l’impact pour les sensibiliser et les accompagner dans la compréhension et l’utilisation de l’IA générative.

      Elle détaille les différents formats d’accompagnement proposés : newsletter, webinaires, hackathons, formations et sessions de conseil personnalisées.

      • 7:52-8:19 Introduction de Wavestone et des intervenants:

      Karen introduit Wavestone, partenaire du programme IA for Good, et présente les intervenants Lison Évoré, consultante en data sciences, et Germain, consultant spécialisé en transformation digitale, IA générative et machine learning.

      • 8:19-13:36 Sondages :

      Deux sondages sont réalisés auprès des participants. Le premier vise à identifier le niveau de familiarité avec l’IA générative et les outils utilisés.

      Le second sonde le sentiment général vis-à-vis de l’IA, entre enthousiasme et réticence.

      • 13:36-19:36 Apports théoriques:

      Lison et Germain présentent les principes de base de l’IA générative en la replaçant dans le contexte de la valorisation de la donnée.

      Ils expliquent les trois niveaux d’exploitation : descriptif, prédictif et génératif, et situent l’IA dans les deux derniers. Ils soulignent les limites et le potentiel de l’IA, en particulier pour les associations.

      • 19:36-26:34 Présentation de Custom GPT et des bonnes pratiques:

      Germain explique en détail la solution Custom GPT utilisée pour générer des dossiers de demande de financement.

      Il met l’accent sur la personnalisation de l’agent GPT via des consignes (persona, objectifs, contraintes) et l’utilisation de documents spécifiques.

      Il aborde les notions de prompt engineering et de RAG (Retrieval Augmented Generation), ainsi que l’importance de la qualité des données fournies.

      • 26:34-44:18 Atelier pratique:

      Germain présente un cas d’usage concret en utilisant un agent Custom GPT personnalisé pour la rédaction de demandes de financement pour l’association Latitudes.

      Il montre comment configurer l’agent, téléverser des documents et interagir avec lui pour affiner la rédaction.

      • 44:18-59:21 Séance de questions-réponses :

      Camille, Karen, Lison et Germain répondent aux questions des participants sur des sujets tels que la confidentialité des données, la personnalisation d’autres outils, l’anonymisation des données, les abonnements payants, la détection de l’IA, la pertinence de l’utilisation de l’IA pour les associations et les risques de biais.

      • 59:21-59:30 Conclusion :

      Camille remercie les participants, les intervenants et les co-organisateurs du webinaire, et encourage les participants à poursuivre leur exploration de l’IA générative.

  6. Nov 2024
  7. Oct 2024
    1. Résumé de la vidéo [00:00:02][^1^][1] - [00:27:40][^2^][2]:

      Cette vidéo explore comment les enseignants peuvent utiliser l'intelligence artificielle (IA) de manière efficace dans leurs cours. Elle présente des outils d'IA, leurs avantages et défis, ainsi que des conseils pratiques pour les enseignants.

      Points forts : + [00:00:02][^3^][3] Introduction et objectifs * Présentation des intervenants * Objectifs du webinaire * Importance de l'IA en éducation + [00:01:19][^4^][4] Recherche de l'OCDE * Impact potentiel de l'IA sur l'équité et l'inclusion * Catégorisation des outils d'IA * Outils centrés sur les enseignants + [00:07:00][^5^][5] Utilisation des outils d'IA * Exemples d'outils utilisés à l'Université d'État de l'Arizona * Approches pédagogiques variées * Importance de la sécurité des données + [00:10:00][^6^][6] Conseils pratiques pour les enseignants * Enseigner sur l'IA * Utiliser l'IA pour faciliter l'enseignement * Outils spécifiques recommandés + [00:18:00][^7^][7] Défis et limitations de l'IA * Coûts et accessibilité * Biais et sécurité des données * Nécessité de compétences critiques

      Résumé de la vidéo [00:27:43][^1^][1] - [00:54:55][^2^][2]:

      Cette vidéo explore comment les enseignants peuvent utiliser l'IA de manière efficace, en abordant les défis, les opportunités et les meilleures pratiques pour intégrer l'IA dans l'éducation.

      Points forts : + [00:27:43][^3^][3] Réglementation et cadre juridique * Importance des cadres légaux pour l'IA * Défis liés à la compréhension des risques * Nécessité d'itérations rapides pour suivre les développements de l'IA + [00:28:49][^4^][4] Formation des enseignants * Besoin de formation sur l'intégration des technologies numériques * Variabilité des besoins de formation entre les pays * Impact de la pandémie sur la préparation des enseignants + [00:31:38][^5^][5] Utilisation de l'IA par les élèves * L'IA déjà intégrée dans la vie quotidienne des enfants * Importance de développer des pratiques et des compréhensions * Défis liés à l'influence de l'IA sur la pensée et les actions + [00:35:15][^6^][6] IA et besoins éducatifs spéciaux * Outils d'évaluation pour adapter l'apprentissage * Utilisation de l'IA pour aider les élèves ayant des besoins spéciaux * Exemples d'outils et de pratiques en Europe + [00:45:01][^7^][7] Politiques et soutien aux enseignants * Importance des lignes directrices pour les enseignants * Besoin de formation continue sur l'IA * Rôle des décideurs politiques dans le soutien aux enseignants

      Résumé de la vidéo [00:54:57][^1^][1] - [00:58:51][^2^][2]:

      Cette vidéo aborde l'utilisation efficace de l'IA par les enseignants, en soulignant l'importance de l'adopter tout en étant conscient des défis associés.

      Points forts: + [00:55:05][^3^][3] Adopter l'IA * L'IA est omniprésente * Apprendre et se tenir informé * Essayer et expérimenter + [00:55:18][^4^][4] Améliorer l'utilisation de l'IA * Embrasser les opportunités * Être conscient des défis * Suivre les conseils et directives disponibles + [00:55:57][^5^][5] Recherche nécessaire * Impact de l'IA sur l'équité et l'inclusion * Effets sur les compétences non académiques * Inclusion des étudiants en classe + [00:56:44][^6^][6] Reconnaître l'expertise des enseignants * Prendre du recul face à la technologie * Valoriser la créativité et l'agence des enseignants * Préparer les élèves pour l'avenir

    1. Résumé de la vidéo [00:00:19][^1^][1] - [00:24:05][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'intelligence artificielle (IA) dans l'éducation, en abordant les perspectives des enseignants, des apprenants et des algorithmes.

      Points forts : + [00:00:19][^3^][3] Introduction des intervenants * Présentation des experts en IA et éthique * Importance de la cybersécurité et de la protection des données * Diversité des disciplines représentées + [00:01:00][^4^][4] Définition de l'IA et de l'éthique * IA comme ensemble d'outils et domaine de recherche * Différence entre éthique et conformité * Importance de l'interdisciplinarité + [00:07:00][^5^][5] Enjeux spécifiques de l'IA * Complexité et opacité des systèmes d'IA * Problèmes liés à l'entraînement des systèmes * Questions de manipulation et d'interaction humain-machine + [00:14:00][^6^][6] Impact sur l'enseignement * Risques de dépendance aux outils d'IA * Importance du cheminement dans l'apprentissage * Problèmes de biais et de discrimination dans les recommandations + [00:20:00][^7^][7] Utilisation par les enseignants * IA pour la notation et l'orientation des élèves * Problèmes de traitement des données personnelles * Nécessité de réflexion critique sur l'impact des outils d'IA

      Résumé de la vidéo [00:24:07][^1^][1] - [00:47:01][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'intelligence artificielle (IA) dans l'éducation, en mettant l'accent sur la confiance, la vérification des faits, et l'impact sur l'apprentissage et l'enseignement.

      Points forts : + [00:24:07][^3^][3] Confiance et vérification des faits * Les erreurs factuelles des IA * Importance de vérifier les sources * Confiance excessive des utilisateurs + [00:28:46][^4^][4] Gagner du temps avec les outils numériques * Question de l'efficacité * Pourquoi vouloir gagner du temps * Impact sur l'apprentissage + [00:32:00][^5^][5] Comparaison avec la calculatrice * Fiabilité des résultats * Importance de l'esprit critique * Différence avec les IA génératives + [00:37:00][^6^][6] Vérité et IA * Définition de la vérité * Comparaison avec les erreurs humaines * Importance de la vérification des faits + [00:40:00][^7^][7] Enjeux éthiques des algorithmes * Utilisation dans la sélection universitaire * Risques de biais et de discrimination * Importance de l'expérimentation et de l'évaluation

      Résumé de la vidéo [00:47:04][^1^][1] - [01:09:39][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'IA dans l'éducation, en abordant des questions de reproductibilité, de contrôle par des entreprises privées, et de diversité linguistique et culturelle.

      Temps forts: + [00:47:04][^3^][3] Limites et expérimentations * Tests des limites des systèmes d'IA * Problèmes de reproductibilité des résultats * Impact des jeux de données d'entraînement + [00:52:00][^4^][4] Contrôle par des entreprises privées * Risques de contrôle idéologique * Importance de la transparence et de la régulation * Enjeux de normalisation et de standardisation + [00:57:00][^5^][5] Développement et apprentissage * Importance de l'apprentissage autonome * Rôle de l'école dans le développement du raisonnement * Utilisation de l'IA pour des tâches spécifiques + [01:02:00][^6^][6] Explicabilité et diversité linguistique * Intégration de mécanismes d'explicabilité * Importance de la diversité des langues et des valeurs * Initiatives pour des modèles de langage locaux

      Résumé de la vidéo [01:09:41][^1^][1] - [01:33:41][^2^][2]:

      Cette vidéo explore les enjeux éthiques de l'utilisation de l'IA dans l'éducation, en abordant des questions de diversité linguistique, de données sensibles, et de déontologie professionnelle.

      Points forts : + [01:09:41][^3^][3] Diversité linguistique et IA * Impact sur les langues locales * Risque d'enfermement culturel * Initiatives pour les langues minoritaires + [01:12:32][^4^][4] Données médicales et IA * Sensibilité des données de santé * Réglementation et RGPD * Utilisation dans la recherche + [01:14:49][^5^][5] Transdisciplinarité et éthique * Importance de l'éducation éthique * Intégration dans les projets de recherche * Sensibilisation dès l'université + [01:18:01][^6^][6] Déontologie professionnelle * Enseignement de la déontologie * Importance des principes éthiques * Réflexion sur l'utilisation des outils IA + [01:22:20][^7^][7] Utilisation de l'IA dans l'éducation * Libérer du temps pour les enseignants * Améliorer l'interaction avec les étudiants * Débat sur l'efficacité et les économies

  8. Sep 2024
    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:19:03][^2^][2]:

      Cette conférence de Flavien Chervet explore l'impact de l'intelligence artificielle (IA) sur la société, en mettant l'accent sur les systèmes génératifs et les transformations technologiques récentes.

      Moments forts: + [00:00:07][^3^][3] Introduction et objectifs * Présentation de Flavien Chervet * Importance des démonstrations pratiques * Utilisation de l'art généré par IA + [00:01:54][^4^][4] Évolution de l'IA * Historique de l'IA depuis les années 1950 * Développement du machine learning dans les années 2000 * Importance de l'apprentissage pour l'IA + [00:09:00][^5^][5] Applications pratiques de l'IA * Utilisation de l'IA dans divers domaines * Exemples de machine learning et deep learning * Impact sur les industries et la médecine + [00:13:45][^6^][6] Révolution et disruption de l'IA * Chute des barrières à l'entrée pour l'IA * Disruption socio-économique causée par l'IA * Comparaison avec d'autres technologies émergentes + [00:14:47][^7^][7] Technologie des Transformers * Introduction des Transformers par Google en 2017 * Impact sur la traduction automatique * Compréhension sémantique et implications futures

      Résumé de la vidéo [00:19:06][^1^][1] - [00:38:53][^2^][2]:

      Cette vidéo explore les avancées et les implications de l'intelligence artificielle (IA), en mettant l'accent sur les modèles de fondation et leur capacité à générer des données et à comprendre la langue.

      Points forts : + [00:19:06][^3^][3] Dark Knowledge et intelligence numérique * Émergence de capacités de raisonnement et de créativité * Importance de la compréhension de la langue * Différence entre intelligence humaine et numérique + [00:20:29][^4^][4] Modèles de fondation et Transformers * Inversion du Deep Learning traditionnel * Entraînement sur des tâches généralistes * Applications variées des modèles de fondation + [00:24:47][^5^][5] Pré-entraînement et générativité * Pré-entraînement sur des tâches généralistes * Capacité à générer de nouveaux exemples * Exemple de l'expérience artistique avec Rembrandt + [00:28:39][^6^][6] Créativité et IA générative * IA participant activement à la création * Impact sur la culture et la civilisation * Démonstration de la co-créativité humain-machine + [00:31:01][^7^][7] Prompt engineering et interaction avec l'IA * Importance de bien formuler les demandes * Techniques pour obtenir des réponses créatives * Exemples de prompts pour la création de bijoux

      Résumé de la vidéo [00:38:56][^1^][1] - [01:00:24][^2^][2]:

      Cette partie de la vidéo explore l'utilisation de l'intelligence artificielle (IA) dans divers domaines, notamment la création de musique, la génération de code et la robotique. Flavien Chervet démontre comment l'IA peut simplifier des tâches complexes et améliorer l'expérience utilisateur.

      Moments forts : + [00:39:36][^3^][3] Reconnaissance sémantique d'image * Suppression de l'arrière-plan * Gain de temps par rapport à Photoshop * Utilisation instantanée de l'image + [00:40:29][^4^][4] Génération de musique avec Suno * Création de musique unique pour des bijoux * Utilisation de ChatGPT pour les prompts * Génération de paroles et de musique + [00:44:00][^5^][5] Création de pages web avec ChatGPT * Génération de code HTML * Intégration de musique et d'images * Simplification du processus de création + [00:48:00][^6^][6] Multimodalité et robotique * Unification des systèmes IA * Progrès en robotique grâce à l'IA * Exemples de robots avancés + [00:55:00][^7^][7] Agentivité des systèmes IA * Modèles du monde robustes * Utilisation d'outils par l'IA * Impact sur le travail et la société

  9. Jul 2024
    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:29:07][^2^][2]:

      Cette vidéo explore les méthodes innovantes pour évaluer les compétences sociales et émotionnelles, en mettant l'accent sur les technologies avancées comme l'intelligence artificielle (IA) et la réalité virtuelle (VR).

      Moments forts: + [00:00:00][^3^][3] Introduction et importance de l'évaluation * Importance des compétences sociales et émotionnelles * Limites des outils actuels * Nécessité de méthodes innovantes + [00:04:00][^4^][4] Évaluation comportementale * Utilisation de tâches et de jeux numériques * Exemples de tâches pour évaluer la créativité * Avantages et défis des évaluations comportementales + [00:12:01][^5^][5] Rôle des fondations privées * Soutien aux projets innovants * Exemple de projet en réalité virtuelle au Nigeria * Importance de l'adaptabilité culturelle + [00:15:00][^6^][6] Complémentarité des évaluations directes * Comparaison avec les auto-évaluations * Importance de l'acceptabilité des tests * Défis liés à la complexité des tâches + [00:19:00][^7^][7] Technologies avancées pour l'évaluation * Mesures biophysiologiques * Réalité virtuelle et augmentée * Applications de l'IA et empreintes numériques

      Résumé de la vidéo [00:29:10][^1^][1] - [00:58:50][^2^][2]:

      Cette vidéo explore les innovations dans la mesure des compétences sociales et émotionnelles et l'impact potentiel de l'IA. Les intervenants discutent des défis éthiques, de la protection des données et de la transparence dans l'utilisation des outils d'évaluation basés sur l'IA.

      Points clés : + [00:29:10][^3^][3] Défis éthiques et protection des données * Importance de la transparence * Besoin de validation des outils * Risques de stéréotypage + [00:33:01][^4^][4] Utilisation formative des évaluations * Apprentissage à partir des évaluations * Importance de l'amélioration des compétences * Limites des évaluations sommatives + [00:36:01][^5^][5] Transparence et validation culturelle * Accès aux données de validation * Importance de la validation culturelle * Partenariats avec les communautés locales + [00:40:00][^6^][6] Réactions des utilisateurs aux évaluations IA * Réactions polarisées des utilisateurs * Importance de la compréhension et de l'acceptation * Besoin de clarté et de spécificité + [00:50:01][^7^][7] Compétences sociales et émotionnelles * Importance des normes culturelles * Équilibre entre les comportements * Contrôle communautaire sur les normes de comportement

      Résumé de la vidéo [00:58:52][^1^][1] - [01:01:02][^2^][2]:

      Cette vidéo discute des innovations dans la mesure des compétences sociales et émotionnelles et de ce que l'IA apportera dans ce domaine.

      Points forts : + [00:58:52][^3^][3] Approches innovantes * Utilisation des traces numériques * Fournisseurs commerciaux pour les apprenants adultes * Espoir de moteurs d'inférence pour les étudiants + [00:59:50][^4^][4] Diversité des données * Ensembles de données plus diversifiés * Données guidant le développement des populations * Importance pour les sous-populations + [01:00:19][^5^][5] Acceptabilité sociale * Possibilités techniques des traces numériques * Préoccupations croissantes concernant la surveillance * Tension entre acceptation sociale et possibilités technologiques

  10. Jun 2024
    1. Résumé de la vidéo [00:00:01][^1^][1] - [04:15:35][^2^][2]:

      La vidéo aborde la gouvernance des données et l'intelligence artificielle (IA) dans le contexte de l'intérêt général. Elle souligne l'importance de développer des critères de progrès précis pour orienter vers les bons usages de l'IA, tout en évitant les dangers potentiels. Les discussions portent sur des sujets variés, notamment la santé, le climat, la justice, et l'égalité, et comment l'IA peut contribuer positivement à ces domaines.

      Points forts: + [00:00:01][^3^][3] Gouvernance des données et IA * Importance de l'IA dans le développement et la recherche * Nécessité de critères de progrès précis pour l'IA * Impact de l'IA sur la société et les citoyens + [00:36:42][^4^][4] Confiance et partage des données * Défis liés à la dépossession et au manque de confiance * Conséquences de l'utilisation commerciale des données personnelles * Importance de la régulation pour protéger les données + [01:18:50][^5^][5] Marché des données et intérêt général * Coût et moyens technologiques nécessaires pour collecter des données * Contrôle et bénéfice des données pour les individus et la société * Débat sur l'utilisation lucrative des données et son impact + [01:55:09][^6^][6] Coût énergétique de l'IA * Augmentation de la consommation énergétique pour l'entraînement des modèles d'IA * Utilisation massive des modèles et leur impact environnemental * Comparaison des coûts énergétiques entre l'IA et d'autres secteurs + [03:02:39][^7^][7] Données multimodales dans le domaine de la santé * Utilisation des données du dossier patient pour la recherche * Avantages des données multimodales sur les données structurées * Progrès possible sans surcharger les médecins avec la saisie de données + [04:03:23][^8^][8] Empreinte énergétique et technologie numérique * Relation entre puissance informatique et consommation énergétique * Besoin de réseaux plus puissants pour les nouveaux usages * Débat sur l'empreinte énergétique du numérique par rapport à d'autres secteurs

    1. Résumé de la vidéo [00:00:01][^1^][1] - [00:23:25][^2^][2] :

      Cette vidéo présente l'état des lieux sur les impacts sociétaux de l'intelligence artificielle et du numérique. Elle aborde les défis de l'IA dans divers secteurs, notamment la santé, l'éducation et l'environnement, et souligne l'importance de la recherche interdisciplinaire et de la gouvernance éthique.

      Points forts : + [00:00:01][^3^][3] Lancement de l'événement * Introduction par Flavie, conseillère en communication * Présentation de l'OBVIA et accueil des participants * Salutations aux participants en ligne de divers pays + [00:01:13][^4^][4] Présentation de Joë Pinot * Discussion sur la santé, l'éducation et l'environnement * Importance de la transformation numérique et des outils d'IA * Réflexion sur l'évolution de l'esprit critique face à l'IA + [00:08:13][^5^][5] Intervention de Joë Pinot * Rôle de l'OBVIA dans le dialogue sociétal sur l'IA * Évolution rapide des modèles d'IA et leur impact sociétal * Importance de la transparence et de l'accès aux modèles d'IA + [00:20:00][^6^][6] Partage des modèles d'IA * Développement d'un écosystème autour des modèles ouverts * Spécialisation des modèles pour différents domaines * Débat sur la responsabilité et la sécurité des modèles d'IA

      Résumé de la vidéo [00:23:27][^1^][1] - [00:46:19][^2^][2]:

      Cette partie de la vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en mettant l'accent sur la nécessité de développer des solutions robustes face aux risques associés. Elle souligne l'importance de l'autonomie dans les domaines de la santé, de l'éducation et du droit, et discute des processus d'évaluation et de partage des modèles d'IA.

      Points saillants: + [00:23:27][^3^][3] Développement de solutions robustes * Démocratisation de l'IA * Participation communautaire accrue * Autonomie dans les applications critiques + [00:24:15][^4^][4] Processus d'open source * Examen juridique et de confidentialité * Normes strictes mais non uniformes * Évaluation automatique et humaine + [00:26:07][^5^][5] Partage de modèles * Accompagnement par des artefacts de recherche * Guides d'utilisation et licences claires * Mécanismes de signalement des problèmes + [00:27:00][^6^][6] Utilisations multiples d'un modèle * Créativité dans l'industrie artistique * Applications médicales bénéfiques * Risques de désinformation et fausses informations + [00:29:37][^7^][7] Incertitude sur la courbe d'innovation * Scénarios d'innovation exponentielle ou de plateau * Importance de l'évaluation basée sur des observations réelles + [00:32:35][^8^][8] Avenir des modèles d'IA * Tendance vers des modèles plus généraux * Développement de modèles multimodaux * Équilibre entre développement et contrôlabilité

      Résumé de la vidéo [00:46:22][^1^][1] - [01:08:17][^2^][2]:

      La vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en se concentrant sur la désinformation, la santé, et l'environnement. Elle souligne l'importance de l'esprit critique, l'utilisation de l'IA dans le domaine médical, et les défis environnementaux posés par la technologie.

      Points forts: + [00:46:22][^3^][3] Désinformation et esprit critique * L'importance de l'analyse des réseaux de diffusion d'information * Utilisation de l'IA pour détecter la vérité * Développement de techniques d'analyse basées sur le raisonnement + [00:48:28][^4^][4] IA dans la santé * Potentiel de l'IA pour améliorer les processus et l'administration des soins * Mesure des bénéfices de l'IA et accessibilité des données pour l'évaluation * Complexité de l'évaluation des technologies de santé + [00:54:43][^5^][5] Environnement et numérique * Impact environnemental du numérique et croissance des émissions de GES * Approche de l'écoconception et sobriété numérique * Importance de l'efficacité énergétique et de la réduction de la consommation des données

      Résumé de la vidéo [01:08:18][^1^][1] - [01:25:57][^2^][2]:

      Cette vidéo aborde les impacts sociétaux de l'intelligence artificielle et du numérique, en se concentrant sur le développement écoresponsable, la transparence dans l'utilisation des modèles d'IA, et l'implication des citoyens dans la création d'une IA éthique. Elle souligne également l'utilisation de l'IA par les gouvernements pour améliorer la productivité et la distribution d'informations aux citoyens.

      Points forts: + [01:08:18][^3^][3] Développement écoresponsable de l'IA * Discussion sur l'orientation des ressources pour un développement écoresponsable * Importance de la transparence dans l'entraînement des modèles d'IA * Proposition d'une déclaration des modèles à la frontière pour la sécurité + [01:11:02][^4^][4] Implication citoyenne dans l'IA éthique * Questions sur l'association des citoyens à l'élaboration d'une IA éthique * Utilisation de l'IA dans les processus décisionnels gouvernementaux * Exemple de coconstruction de la déclaration de Montréal en 2018 + [01:16:08][^5^][5] Rôle de l'État dans la régulation de l'IA * Interrogation sur le rôle de l'État dans la régulation de l'IA * Discussion sur la nécessité d'un cadre régulateur pour les entreprises * Proposition d'une planification écologique délibérative + [01:22:37][^6^][6] Lancement de l'état de la situation sur l'IA et le numérique * Présentation d'une nouvelle publication annuelle sur les impacts sociétaux de l'IA * Structure autour de sept axes de recherche * Objectif de fournir un outil critique et interdisciplinaire pour la prise de décision

    1. Résumé de la vidéo 00:00:00 - 00:33:59 : La vidéo intitulée "L'IA générative et la création de contenus culturels et médiatiques" présente un séminaire sur l'impact de l'intelligence artificielle (IA) générative dans les domaines culturels et médiatiques. Les intervenants, experts dans leurs domaines respectifs, discutent des implications juridiques, technologiques et créatives de l'IA générative. Ils explorent comment l'IA transforme la création de contenu et les défis associés, notamment en matière de droits d'auteur et de propriété intellectuelle.

      Points forts: + [00:00:00][^1^][1] Introduction au séminaire * Présentation des organisateurs et du thème de l'IA générative * Importance de l'IA dans les industries culturelles et créatives + [00:10:17][^2^][2] Impact de l'IA sur la création de contenu * Discussion sur la génération de contenu par l'IA et ses défis juridiques * Examen des perturbations potentielles dans les marchés créatifs + [00:12:01][^3^][3] Présentation de Giancarlo Frosio * Analyse des litiges concernant l'IA générative et le droit d'auteur * Exploration de la diffusion et de la perturbation du marché créatif par l'IA

      Résumé de la vidéo 00:34:02 - 01:12:21 : La deuxième partie de la vidéo se concentre sur les implications juridiques de l'intelligence artificielle (IA) générative dans la création de contenus culturels et médiatiques. L'orateur discute des défis posés par l'IA en matière de droit d'auteur, notamment la question de savoir si les œuvres générées par l'IA peuvent être protégées et la responsabilité en cas de violation du droit d'auteur. Il explore également les différences entre les juridictions, comme les États-Unis, l'Europe et la Chine, en ce qui concerne la protection des œuvres générées par l'IA.

      Points forts: + [00:34:02][^1^][1] Droit d'auteur et IA * Différences entre les juridictions sur la protection des œuvres d'IA * Cas de jurisprudence et doctrine du fair use aux États-Unis * Débat sur la personnalité juridique des machines + [00:50:32][^2^][2] Originalité et IA * Discussion sur l'originalité et la créativité algorithmique * Question de savoir si l'IA peut être considérée comme un auteur * Impact de l'IA sur l'homogénéisation culturelle + [01:02:24][^3^][3] Marché de la créativité et IA * Considérations sur le marché de la créativité face à l'IA * Proposition de licences obligatoires pour l'utilisation d'œuvres protégées * Réflexion sur la redistribution de la valeur générée par l'IA

      Résumé de la vidéo 01:12:24 - 01:40:53 : La troisième partie de la vidéo se penche sur les questions juridiques et éthiques soulevées par l'intelligence artificielle générative dans la création de contenus culturels et médiatiques. Elle explore les implications du droit d'auteur, la responsabilité en cas de violation, et la distinction entre les contributions humaines et celles de l'IA. La vidéo met en lumière les défis posés par l'IA dans le respect des droits d'auteur et la nécessité d'une éthique dans l'utilisation de l'IA générative.

      Points forts: + [01:12:24][^1^][1] Droit d'auteur et IA générative * Débat sur la responsabilité en cas de contenu similaire à une œuvre protégée * Question de la responsabilité secondaire de l'utilisateur ou de la plateforme + [01:17:02][^2^][2] L'impact de l'IA sur la création artistique * Discussion sur l'apocalypse artistique annoncée et la réponse de l'esthétique artificielle * Réflexion sur l'intégration de l'IA dans les démarches esthétiques + [01:38:10][^3^][3] Éthique de l'IA générative dans les médias * Présentation sur la formation d'un écosystème médiatique éthique avec l'IA * Importance de servir l'intérêt public dans l'utilisation de l'IA

      Résumé de la vidéo 01:40:55 - 02:04:02 : La quatrième partie de la vidéo se concentre sur l'éthique de l'intelligence artificielle (IA) générative dans les médias. L'intervenante, Chloé, explore les opportunités et les risques associés à l'utilisation de l'IA dans le journalisme, en mettant l'accent sur la nécessité d'une approche éthique et transparente. Elle présente des exemples concrets d'utilisation de l'IA pour la traduction, le résumé automatique et l'enrichissement de l'information, tout en soulignant l'importance du rôle humain dans la supervision de ces outils.

      Points forts: + [01:40:55][^1^][1] L'éthique dans l'utilisation de l'IA * Responsabilité dans la communication de l'utilisation de l'IA * Importance de l'éthique pour guider l'utilisation de l'IA dans les médias + [01:42:02][^2^][2] Exemples d'utilisation de l'IA dans les médias * Traduction des nouvelles pour les réfugiés ukrainiens * Édition en anglais du journal Le Monde grâce à l'IA + [01:45:32][^3^][3] Innovation dans la structure de l'information * Création d'histoires fractales pour la mise à jour automatique de l'information * Utilisation de l'IA pour réorganiser la structure des articles de presse + [01:47:21][^4^][4] Risques et défis de l'IA générative * Risque de mésinformation et désinformation * Importance de la vérification humaine et de la transparence

      Résumé de la vidéo 02:04:04 - 02:26:14 : La cinquième partie de la vidéo se concentre sur les implications esthétiques et juridiques de l'intelligence artificielle (IA) dans la création littéraire. L'orateur examine comment les modèles d'IA, en particulier ceux basés sur l'architecture des Transformers, tels que ChatGPT, remettent en question la nature de la littérature et du langage. Il aborde la littérature générée par informatique, la relation entre les textes d'entraînement et les textes générés, et les questions d'autorité et de réception des œuvres littéraires produites par l'IA.

      Points forts: + [02:04:04][^1^][1] L'IA dans la création littéraire * Débat sur la littérature comme calcul statistique * Impact des modèles d'IA sur la conception de la littérature * Question de l'autonomie des textes générés par l'IA + [02:05:00][^2^][2] Transformations de la littérature * Nouveaux processus créatifs basés sur la contrainte statistique * Relation intertextuelle entre textes d'entraînement et textes générés * Transformation de la notion d'autorité dans la création littéraire + [02:06:00][^3^][3] Historique de la littérature générée par informatique * Évolution des pratiques de génération de texte par informatique * Recherche d'autonomie dans les processus génératifs * Différences entre génération combinatoire et apprentissage calculatoire + [02:17:01][^4^][4] Conséquences juridiques et esthétiques * Implications du droit d'auteur pour les textes générés par IA * Distinction entre les œuvres protégées et les créations mécaniques * Positionnement des auteurs face aux textes générés par IA

      Résumé de la vidéo 02:26:16 - 02:48:24 : La sixième partie de la vidéo explore les implications de l'intelligence artificielle (IA) dans la création littéraire et culturelle. Elle met en lumière la notion de transfictionnalité et la capacité de l'IA à générer des narrations cohérentes, ce qui ouvre un nouveau champ de recherche et de pratique. L'orateur souligne l'importance de l'intention de l'auteur et la nécessité de recontextualiser la valeur littéraire à l'ère de l'IA générative.

      Points forts: + [02:26:16][^1^][1] Transfictionnalité et IA * Discussion sur l'émergence de nouvelles pratiques littéraires grâce à l'IA * L'IA atteint la narrativité, présageant un domaine de recherche fécond + [02:27:01][^2^][2] L'IA comme 'signe noir' * Surprise face aux progrès rapides de l'IA dans le domaine littéraire * Les textes générés sont des simulacres, soulevant des questions sur leur authenticité + [02:27:29][^3^][3] Hypothèses sur l'avenir de la littérature * Prévision d'un recentrage de la littérature autour de la relation esthétique avec le monde * La génération de texte par l'IA ne signifie pas que tout le monde sera auteur

    1. Résumé de la vidéo [00:00:01][^1^][1] - [00:23:54][^2^][2] : Cette vidéo explore l'impact de l'intelligence artificielle (IA) sur les sciences humaines et sociales. Elle présente un panel de discussions avec des experts qui partagent leurs perspectives sur la manière dont l'IA transforme la recherche dans ces domaines. Les intervenants abordent des sujets tels que l'épistémologie de l'IA, les changements méthodologiques dans la recherche, et les implications éthiques de l'utilisation de l'IA en sciences humaines.

      Points forts: + [00:00:01][^3^][3] Introduction au panel * Présentation des panélistes et du sujet * Importance de l'IA dans la recherche actuelle * Interaction avec le public en ligne + [00:07:10][^4^][4] Première intervention * Discussion sur l'intersection de l'IA avec les sciences humaines * Expérience personnelle de l'intervenant avec l'IA * L'importance de l'approche interdisciplinaire + [00:17:59][^5^][5] Impact de l'IA sur la recherche * Transformation des pratiques scientifiques par l'IA * Différences entre les sciences de la nature et les sciences humaines * Rôle de l'IA dans la compréhension des phénomènes sociaux + [00:21:20][^6^][6] Perspectives sur l'IA * Vue d'ensemble de l'IA et de son évolution * Distinction entre IA faible et IA forte * Potentiel de l'IA pour les sciences humaines et sociales

      Résumé de la vidéo 00:23:58 - 00:45:34 : Cette partie de la vidéo discute de l'impact et des applications de l'intelligence artificielle (IA) dans divers domaines, notamment la recherche en sciences humaines et sociales, la musicologie médiévale et l'analyse de données historiques. L'orateur explique comment l'IA a permis de traiter de grandes quantités de données et d'améliorer les méthodes de recherche. Il souligne également l'importance de l'interdisciplinarité et de l'adaptation des méthodes traditionnelles à l'ère numérique.

      Points forts: + [00:23:58][^1^][1] L'évolution de l'IA * L'explosion des outils génératifs comme ChatGPT * L'importance de l'apprentissage profond et des réseaux autoatentifs * La capacité de l'IA à traiter et analyser de grandes masses de données + [00:27:07][^2^][2] La 4e révolution industrielle * L'automatisation des tâches cognitives grâce à l'IA * L'impact sur différents domaines professionnels et scientifiques * Les limites éthiques et pratiques de l'automatisation + [00:30:02][^3^][3] L'accessibilité de l'informatique * La programmation des ordinateurs en langage naturel * L'importance croissante des grands modèles de langue * Les implications pour les experts non techniques + [00:33:00][^4^][4] Applications pratiques de l'IA * L'automatisation des revues systématiques en recherche * Les essais cliniques adaptatifs et les questionnaires adaptatifs * La reconnaissance de comportements dans les vidéos

      Résumé de la vidéo 00:45:36 - 01:12:12 : La troisième partie de la vidéo se concentre sur l'impact de l'intelligence artificielle (IA) dans le domaine de la musicologie médiévale, en particulier sur la numérisation et l'analyse des manuscrits et partitions musicales. L'orateur discute des avancées technologiques, telles que la reconnaissance optique de musique (OMR) et l'utilisation de réseaux de neurones pour l'analyse stylistique et la génération de musique. Il souligne également les défis méthodologiques et les besoins en coopération interdisciplinaire pour avancer dans ce domaine.

      Points forts: + [00:45:36][^1^][1] Numérisation des manuscrits médiévaux * Importance de la base de données contenant des transcriptions de textes et de musique associée * Impact sur la musicologie et les études médiévales + [00:47:02][^2^][2] Reconnaissance optique de musique (OMR) * Équivalent musical de la reconnaissance optique de caractères (OCR) * Progrès dans la transcription automatique de la musique médiévale + [00:50:18][^3^][3] Stylométrie et génération de musique * Analyse du style des compositeurs pour générer de la musique dans leur style * Exemples d'applications pratiques et de recherche en musicologie + [00:55:32][^4^][4] Traduction et communication savante * Discussion sur l'importance de la traduction dans la diffusion de la recherche * Utilisation de la traduction automatique pour accéder à des travaux dans différentes langues

      Résumé de la vidéo 01:12:14 - 01:36:50 : Cette section de la vidéo aborde l'impact de l'intelligence artificielle (IA) sur les métiers de la communication, le journalisme, les relations publiques et la publicité sociale. L'intervenant, directeur du Lab CIA, discute des effets de l'IA sur la recherche et l'acceptabilité des contenus synthétiques dans les médias. Il souligne l'importance de poser les bonnes questions pour obtenir des réponses utiles de l'IA et partage une expérience personnelle sur la rapidité et la créativité des outils d'IA dans la génération de projets de recherche.

      Points forts: + [01:12:14][^1^][1] L'impact de l'IA sur les métiers de la communication * Discussion sur les médias automatisés et l'acceptabilité du contenu synthétique * Importance de l'IA dans la formation et la recherche en communication + [01:14:00][^2^][2] La rapidité et la créativité des outils d'IA * Anecdote sur la génération rapide d'un projet de recherche par IA * Réflexion sur l'importance de la démarche de recherche par rapport aux résultats + [01:27:02][^3^][3] La vérité et l'objectivité dans la recherche * Débat sur la quête de vérité et la distinction entre savoir et comprendre * Discussion sur la fragilité et les dangers potentiels de l'IA dans la recherche

      Résumé de la vidéo 01:36:52 - 02:00:51 : La cinquième partie de la vidéo aborde l'utilisation des outils d'intelligence artificielle (IA) dans la recherche en sciences humaines et sociales. Les intervenants discutent de la manière dont l'IA peut aider à analyser des données numérisées, traduire des textes complexes et explorer des hypothèses de recherche qui étaient auparavant inaccessibles. Ils soulignent également les défis liés à la qualité des données et la nécessité d'une approche critique dans la formation des futurs chercheurs.

      Points forts: + [01:36:52][^1^][1] Avantages de l'IA dans la recherche * Gain de temps et accès facilité aux données numérisées * Utilisation de l'IA pour la comparaison et l'analyse de sources * Importance de la formation critique des futurs chercheurs + [01:38:50][^2^][2] Confiance dans l'IA générative * Débat sur le niveau de confiance accordé aux agents conversationnels comme ChatGPT * Discussion sur l'IA dans des domaines spécialisés comme la physique des particules * Réflexion sur l'utilisation de l'IA dans la recherche scientifique + [01:47:02][^3^][3] Qualité de l'écriture générée par l'IA * Évolution de la qualité des textes produits par l'IA * Comparaison avec l'écriture humaine et la créativité des grands écrivains * Impact de l'IA sur la pratique journalistique et la rédaction + [01:50:02][^4^][4] IA et délibération humaine * Préoccupation concernant la substitution de l'IA à la réflexion humaine * Distinction entre le langage humain et le langage probabiliste de l'IA * Débat sur l'impact fondamental de l'IA sur les sciences humaines et sociales

      Résumé de la vidéo 02:00:52 - 02:23:27 : La sixième partie de la vidéo aborde les débats philosophiques autour de l'intelligence artificielle (IA), notamment la notion de singularité et le test de Turing. Les intervenants discutent de la capacité de l'IA à imiter la pensée humaine et de l'impact de l'IA sur la vérité et l'objectivité dans la recherche. Ils soulignent également les différences fondamentales entre le fonctionnement du cerveau humain et celui des machines, ainsi que les risques potentiels de perte de compétences humaines dues à la dépendance croissante à l'IA.

      Points forts: + [02:00:52][^1^][1] Débats sur la singularité * Discussion sur le moment où l'IA atteindra ou dépassera l'intelligence humaine * Références à des événements marquants comme la victoire d'une IA au jeu de Go + [02:07:00][^2^][2] Vérité et objectivité * Questionnement sur la vérité et l'objectivité des informations fournies à l'IA * Impact de la perspective historique et culturelle sur les données + [02:14:11][^3^][3] Rôle des bibliothécaires * Comparaison entre les compétences des bibliothécaires et les réponses générées par l'IA * Importance de la compréhension humaine de la littérature + [02:17:54][^4^][4] IA et cognition humaine * Distinction entre les réseaux de neurones formels et les processus cognitifs humains * Discussion sur la manière dont le cerveau biologique effectue des calculs sans représentation numérique

      Résumé de la vidéo 02:23:29 - 02:40:34 : La septième partie de la vidéo discute de l'impact de l'intelligence artificielle (IA) sur les pratiques sociales et la recherche en sciences humaines. Les panélistes explorent les avantages et les défis de l'IA, notamment en termes de créativité, de perte de compétences et de désinformation. Ils soulignent l'importance de la pensée critique et de la formation pour utiliser efficacement l'IA dans divers domaines professionnels.

      Points forts: + [02:23:29][^1^][1] L'IA et la créativité * Réflexion sur l'importance de la poésie et de la créativité face à l'IA * Discussion sur les capacités perdues et gagnées avec l'utilisation de l'IA * Exemple de la caméra de recul en voiture comme métaphore de la dépendance technologique + [02:25:22][^2^][2] L'IA dans le journalisme * L'IA peut libérer du temps pour des tâches créatives en prenant en charge les tâches répétitives * Exemple de l'utilisation de l'IA pour des tâches comme le bâtonnage de dépêche * Formation des journalistes pour poser les bonnes questions aux modèles d'IA + [02:29:00][^3^][3] Désinformation et IA * Préoccupations concernant la désinformation et le profilage par l'IA * Impact de l'IA sur la fragmentation de la société et l'espace public * Discussion sur la génération de fausses nouvelles et d'images trompeuses + [02:33:01][^4^][4] Pensée critique et IA * Question sur l'intégration de la pensée critique dans l'IA * Réflexion sur la vérité et les limites des données utilisées pour entraîner l'IA * Importance de la diversité dans la création des modèles d'IA

  11. May 2024
    1. Résumé de la vidéo [00:00:07][^1^][1] - [00:21:52][^2^][2]:

      Maël PEGNY discute de l'importance pour les scientifiques sociaux de comprendre le calcul et l'informatique, en particulier dans le contexte de l'apprentissage automatique et de la modélisation des thèmes. Il explore les problèmes génériques liés à l'abstraction, à la validation intuitive des résultats et à la pluralité des formalisations dans la recherche.

      Points forts: + [00:00:07][^3^][3] L'importance de la compréhension du calcul * La nécessité pour les scientifiques sociaux de comprendre les outils informatiques * La distinction entre spécification et implémentation * L'impact de l'abstraction sur l'interprétation des calculs + [00:05:03][^4^][4] L'intuition et la formalisation * La traduction des problèmes intuitifs en problèmes formels * La spécification comme guide pour l'exécution des méthodes computationnelles * La validation des résultats computationnels par rapport à l'intuition initiale + [00:11:15][^5^][5] La pluralité des formalisations * Les différentes manières de formaliser un problème intuitif * L'interprétation de la pluralité comme clarification conceptuelle ou échec méthodologique * Les décisions pragmatiques prises lors de la formalisation + [00:15:36][^6^][6] Les concepts opaques et la méthodologie * La difficulté de définir des concepts intuitifs comme les thèmes de recherche * La comparaison entre l'intuition et la formalisation * La question de savoir si la philosophie des sciences a pleinement reconnu ces problèmes méthodologiques Résumé de la vidéo [00:21:53][^1^][1] - [00:44:03][^2^][2] : La vidéo présente une conférence de Maël PEGNY sur l'importance de la compréhension des calculs en sciences sociales, en particulier en ce qui concerne le machine learning et la métaprogrammation. PEGNY discute des défis liés à la formalisation des problèmes intuitifs et à la spécification des calculs, soulignant les ambiguïtés terminologiques et les difficultés d'interprétation. Il explore également la notion de métriques de performance en machine learning et leur rôle dans la formalisation partielle des intuitions de départ.

      Points saillants : + [00:22:00][^3^][3] Défis de la formalisation * Difficulté à caractériser les actions sans formalisation explicite * Débat sur la terminologie appropriée pour décrire les processus + [00:23:01][^4^][4] Métaprogrammation en machine learning * Processus de programmation d'un algorithme qui génère un autre programme * Importance de comprendre les calculs sous-jacents à la fois de l'algorithme d'apprentissage et du modèle résultant + [00:24:53][^5^][5] Rôle des métriques de performance * Les métriques guident l'apprentissage et optimisent la performance * Elles constituent une forme de formalisation partielle des intuitions + [00:37:04][^6^][6] Identification des thèmes de recherche * Approche intuitive et non systématique pour déterminer les thèmes * Comparaison entre les résultats intuitifs et ceux générés par le machine learning Résumé de la vidéo [00:44:05][^1^][1] - [01:04:55][^2^][2]:

      La vidéo présente une conférence de Maël PEGNY sur l'importance de la compréhension des méthodes computationnelles en sciences sociales. Il discute des défis liés à l'analyse de données et à l'interprétation des résultats obtenus par machine learning, soulignant les limites des approches traditionnelles et la nécessité d'adapter les méthodes statistiques aux complexités des données sociales.

      Points forts: + [00:44:05][^3^][3] Choix de la base de données * Importance de la sélection des données * Différences entre autodescription et publications + [00:45:35][^4^][4] Problèmes d'interprétation * Difficultés d'interprétation des résultats * Nécessité d'ajuster les stop words en NLP + [00:48:04][^5^][5] Pluralité des formalisations * Comparaison de différentes méthodes d'analyse * Impact de la complexité des modèles sur l'interprétation + [00:57:52][^6^][6] Épistémologie des statistiques * Questionnement sur la nouveauté des problèmes posés par le machine learning * Pertinence des traditions statistiques pour comprendre l'apprentissage automatique Résumé de la vidéo 01:04:57 - 01:09:09 : La partie 4 de la vidéo aborde la nécessité pour les scientifiques sociaux de comprendre les calculs dans le contexte de l'apprentissage profond et de la statistique. Elle explore le choc que le succès de l'apprentissage profond a provoqué chez les statisticiens et comment cela a conduit à une réévaluation des fondements de la théorie statistique.

      Points forts : + [01:05:00][^1^][1] Surprise des statisticiens * L'apprentissage profond a surpris les statisticiens * Reconsidération des fondements de la théorie statistique * Recherche d'une compréhension théorique de l'apprentissage profond + [01:05:49][^2^][2] Nouveautés dues à l'échelle de calcul * Changements qualitatifs avec l'augmentation de la masse des données * Nouveautés apparaissent avec le calcul à grande échelle * Importance de la modélisation formelle des problèmes + [01:07:37][^3^][3] Différenciation des enjeux de formalisation * Distinction entre mathématiques, logique et informatique théorique * La formalisation en informatique diffère de celle en mathématiques * La tradition de méthodes formelles rigoureuses est peu représentée en machine learning

    1. Résumé de la vidéo [00:00:06][^1^][1] - [00:27:33][^2^][2]:

      Célia Zolynski discute de la transition du calcul du sujet à son empowerment dans le contexte de l'intelligence artificielle (IA) et de la régulation des plateformes. Elle aborde les enjeux de la régulation de l'IA, l'importance de protéger les droits fondamentaux face aux risques potentiels, et propose des pistes pour renforcer le pouvoir d'action des utilisateurs.

      Points forts: + [00:00:06][^3^][3] Introduction et contexte * Présentation de Célia Zolynski et de son domaine d'expertise en droit du numérique * Importance de la régulation des plateformes et des systèmes d'IA + [00:03:06][^4^][4] Régulation des droits fondamentaux et IA * Approche actuelle de la régulation visant à protéger les droits fondamentaux * Nécessité d'une approche complémentaire pour renforcer le pouvoir d'action des utilisateurs + [00:10:01][^5^][5] Le règlement sur l'intelligence artificielle (AI Act) * Discussion sur le AI Act proposé par la Commission européenne * Classification des risques et mécanismes de mise en conformité + [00:17:01][^6^][6] Empowerment de l'utilisateur final * Stratégies pour améliorer la compréhension et l'interaction des utilisateurs avec les systèmes d'IA * Importance de la transparence et de la jouabilité pour l'empowerment Résumé de la vidéo [00:27:34][^1^][1] - [00:53:16][^2^][2]:

      La vidéo présente une conférence de Célia Zolynski, qui aborde le sujet de l'impact des systèmes algorithmiques sur les individus et la société. Elle souligne l'importance de comprendre, débattre et potentiellement contester les contraintes techniques imposées par ces systèmes, en particulier dans le contexte des ressources humaines et de la reconnaissance faciale.

      Points forts: + [00:27:34][^3^][3] Comprendre et débattre des contraintes techniques * Nécessité de réflexion collective sur l'utilisation des algorithmes * Importance de la formation pour un débat éclairé * Propositions de la Commission nationale consultative des droits de l'homme + [00:30:10][^4^][4] Droit de contester les décisions algorithmiques * Reconnaissance du droit de contestation en droit des données personnelles * Discussion sur l'accès aux preuves et la présomption de non-discrimination * Importance de la défense des libertés et droits fondamentaux + [00:34:18][^5^][5] Actions collectives pour la défense des droits * Nécessité de procédures pour organiser des actions collectives * Importance des organismes de promotion de l'égalité et de la défense des droits * Propositions pour une régulation plus humaniste de la technique + [00:36:01][^6^][6] Droit au paramétrage des systèmes algorithmiques * Proposition d'un droit de paramétrage pour l'utilisateur * Impact sur les algorithmes de recommandation et les assistants vocaux * Vision d'une interaction plus humaniste entre l'homme et la machine Résumé de la vidéo [00:53:17][^1^][1] - [01:10:10][^2^][2]:

      La vidéo présente une discussion approfondie sur le Digital Markets Act (DMA) et son impact sur les grandes plateformes numériques, en particulier en ce qui concerne l'accès aux données et le contrôle du marché. Célia Zolynski explore les défis liés à la qualification des bases de données en tant qu'infrastructures essentielles et les obligations imposées aux acteurs dominants pour promouvoir l'innovation et la concurrence loyale.

      Points saillants: + [00:53:17][^3^][3] Le marché numérique et le DMA * Analyse du rôle des grandes plateformes dans l'organisation du marché * Discussion sur les pratiques déloyales et l'effet de verrouillage du marché * Importance de l'accès aux données pour la concurrence et l'innovation + [00:57:03][^4^][4] Paramètres de l'utilisateur et contenu * Exploration de la possibilité pour les utilisateurs de contrôler l'affichage du contenu * Importance du design et de la facilité de modification des paramètres * Réflexion sur les paramètres utiles et déterminants pour les utilisateurs + [01:02:00][^5^][5] Fatigue du consentement et design * Discussion sur la fatigue du consentement et l'importance d'un design encourageant l'interaction * Idées pour préconfigurer les choix des utilisateurs concernant les cookies * Défis liés à l'équilibre entre préinstallation et contrôle utilisateur + [01:07:02][^6^][6] Complexité réglementaire et accès au marché * Analyse de la complexité des textes réglementaires et de leur impact sur les PME * Approche asymétrique imposant plus d'obligations aux grands acteurs * Objectif de ne pas créer de barrières réglementaires à l'entrée sur le marché

  12. Mar 2024
    1. Résumé de la Vidéo

      La vidéo est une discussion sur l'intelligence artificielle (IA) générative et son impact sur l'éducation. Damien Dubreuil et Benoît introduisent le sujet en expliquant leur expérience et leur rôle dans l'utilisation de l'IA. Ils abordent la responsabilité des éducateurs à comprendre et à tester ces systèmes, soulignant l'importance de la vérification des informations générées par l'IA.

      Points Forts: 1. Introduction au webinaire sur l'IA générative [00:00:09][^1^][1] * Présentation des intervenants et du format du webinaire * Discussion sur la direction d'un établissement scolaire à l'ère de l'IA générative 2. Expérience et rôle des intervenants dans l'IA [00:01:07][^2^][2] * Damien Dubreuil partage son expérience en tant que proviseur et référent numérique * Benoît parle de son parcours en IA et de son travail avec l'ESSEC et le hub France IA 3. Compréhension et définition de l'IA générative [00:04:03][^3^][3] * Clarification des termes et des concepts clés de l'IA * Explication de l'IA générative et de son évolution 4. Responsabilité éducative face à l'IA générative [00:15:42][^4^][4] * Importance pour les éducateurs de tester et de comprendre l'IA générative * Discussion sur la fiabilité des informations générées et la nécessité de vérification Résumé de la vidéo

      Cette vidéo explore l'utilisation de l'intelligence artificielle (IA) dans le domaine pédagogique, en particulier pour traiter de grandes quantités de données textuelles. Elle aborde les avantages de l'IA pour gagner du temps dans la rédaction de rapports d'autoévaluation et la planification de projets éducatifs. La vidéo souligne également les défis réglementaires liés à l'utilisation de l'IA, comme le RGPD et le futur AI Act européen, tout en discutant des hallucinations, un phénomène où l'IA peut générer des informations fausses mais plausibles.

      Points saillants : 1. Utilisation de l'IA dans l'éducation [00:23:49][^1^][1] * Simplifie la gestion de grandes quantités de données * Permet de gagner du temps dans la rédaction de rapports * Nécessite une vérification humaine pour assurer l'exactitude 2. Défis réglementaires et éthiques [00:29:58][^2^][2] * Le respect du RGPD et l'anticipation du AI Act européen * Importance de la protection des données personnelles * Nécessité d'une approche responsable dans l'utilisation de l'IA 3. Phénomène des hallucinations de l'IA [00:36:47][^3^][3] * L'IA peut créer des informations fausses mais crédibles * Les hallucinations sont inhérentes à la nature des systèmes de traitement du langage * Importance de la vérification par les utilisateurs pour éviter la désinformation 4. Intégration de l'IA dans les pratiques pédagogiques [00:42:00][^4^][4] * Encouragement à expérimenter avec l'IA pour comprendre ses capacités et limites * Organisation d'ateliers pour familiariser le personnel et les élèves avec l'IA * Utilisation de l'IA comme outil d'assistance et non comme source unique de vérité Résumé de la Vidéo

      La partie 3 de la vidéo aborde l'intégration de l'intelligence artificielle (IA) dans les solutions éducatives, notamment le déploiement de "Mia seconde" pour accompagner les lycéens. Elle soulève des questions sur la protection des données (RGPD) et l'esprit critique face à ces outils. L'orateur partage son expérience personnelle avec l'utilisation d'un chatbot basé sur Chat GPT 35 sur le site de son lycée, qui bien que perfectible, sert d'outil de veille et d'amélioration de son travail.

      Points Forts: 1. Déploiement de Mia seconde [00:47:02][^1^][1] * Solution intégrant l'IA pour les lycéens * Déjà en phase expérimentale * Provoque des interrogations sur le RGPD et l'esprit critique 2. Utilisation de l'IA dans les espaces numériques de travail [00:47:39][^2^][2] * Intégration d'outils d'IA dans les académies * Exemple de la W flash déjà utilisée par certains 3. Expérience personnelle avec un chatbot [00:48:20][^3^][3] * Mise en place d'un chatbot sur le site du lycée * Basé sur Chat GPT 35, nécessite des améliorations * Utilisé pour la veille et l'amélioration des services du lycée 4. Perspectives sur l'évolution des outils d'IA [00:55:44][^4^][4] * Discussion sur la mise à jour du chatbot vers Chat GPT 4 * Importance de l'actualisation des données et des réponses fournies

  13. Feb 2024
    1. la question de de Nicolas qui est un petit peu plus usage pratique euh qui se demande si c'est si 00:45:00 l'outil euh euh je pense en particulier à chat GPT mais j'imagine il y a d'autres il y a d'autres outils mais est-ce qu'il est capable de synthétiser des réponses à des questionnaires de de satisfaction et et des questionnaire de qualité euh et de faire de sortir voilà 00:45:15 des des des comment dire des analyses de manière qualitative et quantitative et cetera
    2. une question de 00:42:01 gislen qui se posait un peu bah la question de du fameux droit d'auteur des productions qui sont généré par unea générative celui qui a qui a créé la requête et choisit la la génération qui 00:42:14 lui paraît satisfaisante est-ce que il peut prétendre être auteur de la production c'est un peu voilà qu'en est-il des des droits d'auteur et et voilà et les images qu'on obtient ou même d'ailleurs les textes he est-ce que 00:42:27 on peut s'en approprier le le le droit ou pas
    3. Résumé vidéo [00:00:00][^1^][1] - [00:22:46][^2^][2]: La vidéo présente une session de webinaire organisée par Solidatech, où l'équipe de Cyber Forgo discute de l'intelligence artificielle (IA) et de son utilisation par les associations. Elodie de Solidatech introduit le webinaire et explique les aspects pratiques, suivie par une présentation de Solidatech et ses services pour les associations. L'équipe de Cyber Forgo partage ensuite des exemples d'utilisation de l'IA générative et des conseils pour son utilisation sécurisée et efficace.

      Points forts: + [00:00:00][^3^][3] Introduction et objectifs du webinaire * Présentation par Elodie de Solidatech * Discussion sur l'IA par Cyber Forgo + [00:02:15][^4^][4] Présentation de Solidatech * Services numériques pour associations * Histoire et mission de Solidatech + [00:06:19][^5^][5] Exemples d'utilisation de l'IA générative * Utilité de l'IA pour les associations * Conseils pour une utilisation responsable + [00:09:35][^6^][6] Risques et précautions d'usage de l'IA * Importance de la sécurité et de l'éthique * Astuces pour éviter les pièges de l'IA Résumé de la vidéo [00:22:48][^1^][1] - [00:49:22][^2^][2]: La vidéo présente l'association Data for Good qui soutient des projets technologiques à impact social. Elle met en lumière l'utilisation de l'IA pour extraire des données, analyser des images et accélérer le développement technique avec des ressources limitées.

      Points forts: + [00:22:48][^3^][3] Structure de Data for Good * Saisons de projets tech * Recrutement envisagé + [00:24:56][^4^][4] Extraction de données non structurées * Observatoire sur l'évasion fiscale + [00:25:09][^5^][5] Analyse d'image * Projets environnementaux * Détection d'incendies et pollution plastique + [00:25:35][^6^][6] Développements techniques complexes * Projets ambitieux avec petites équipes + [00:30:50][^7^][7] Projet Carbon Bombs * Visualisation de mégaprojets fossiles + [00:32:16][^8^][8] Risques de l'IA générative * Biais, fausses informations, fuites de données + [00:38:23][^9^][9] Conseils pour utiliser l'IA générative * Écrire des requêtes claires * Ne pas divulguer d'informations personnelles * Vérifier les réponses obtenues Résumé de la vidéo 00:49:23 - 01:04:05 : La vidéo aborde l'écriture de prompts, la confidentialité des données avec les outils génératifs, et l'utilisation de l'IA dans les associations. Elle souligne l'importance de la transparence et de la sécurité des données.

      Points clés : + [00:49:23][^1^][1] Écriture de prompts * Conseils pour construire des requêtes + [00:50:09][^2^][2] Applications pour prompts * Utiliser des applis pour créer des requêtes + [00:51:13][^3^][3] Conseils sur les requêtes * Créer ses propres requêtes pour mieux comprendre l'outil + [00:52:01][^4^][4] Sécurité des données * Risques liés à l'utilisation des outils génératifs + [00:54:06][^5^][5] Confidentialité et IA * Prudence avec les informations personnelles + [00:57:18][^6^][6] IA pour FAQ * Réflexion sur l'utilisation de l'IA pour améliorer les FAQ

    1. Résumé de la vidéo [00:00:00][^1^][1] - [00:44:18][^2^][2]:

      Cette vidéo est une conférence de Jean-Gabriel Ganascia, professeur d'informatique à Sorbonne Université, sur le thème des servitudes virtuelles. Il s'agit de la manière dont les technologies numériques, et notamment l'intelligence artificielle, peuvent exercer des formes de contrainte et d'oppression sur les individus et les sociétés. Il analyse les enjeux éthiques, politiques et juridiques de ces technologies, et propose des pistes de réflexion pour s'en libérer.

      Points clés: + [00:00:07][^3^][3] Il rend hommage à Blaise Pascal, précurseur de la machine à calculer et de la réflexion sur l'intelligence artificielle * Il cite un texte où Pascal distingue les machines des animaux par l'absence de volonté * Il critique les transhumanistes qui veulent attribuer une volonté aux machines + [00:02:46][^4^][4] Il décrit le monde en ligne dans lequel nous vivons, où nos vies sont soumises aux flux d'information et à l'intelligence artificielle * Il reconnaît les bienfaits du numérique dans de nombreux domaines (web, santé, robotique, écologie, etc.) * Il dénonce les nouvelles formes de coercition et d'oppression qui s'exercent au plan cognitif * Il compare la situation actuelle à celle décrite par Étienne de La Boétie dans son Discours de la servitude volontaire + [00:09:01][^5^][5] Il expose les limites des chartes éthiques du numérique, qui se multiplient sans être efficaces * Il montre que les principes invoqués (autonomie, dignité, bienfaisance, non-malfaisance, etc.) sont ambigus, relatifs et imprécis * Il illustre les conséquences sociales et politiques des technologies de l'information et de la communication avec des exemples concrets (reconnaissance faciale, crédit social, cloud act, etc.) * Il plaide pour une approche plus pragmatique et plus critique, qui prenne en compte les usages réels et les modes d'appropriation des technologies + [00:20:10][^6^][6] Il propose une éthique du numérique fondée sur la responsabilité individuelle et collective * Il distingue l'éthique de la morale, de la déontologie et du droit * Il définit l'éthique comme une réflexion sur les valeurs et les normes qui orientent nos actions * Il s'inspire de la pensée de Jacques Derrida, qui met l'accent sur l'ouverture à l'avenir et à l'imprévisible * Il cite un texte d'Albert Camus, qui donne quatre conseils aux journalistes : être lucide, refuser de diffuser la haine, user de l'ironie et être obstiné

    1. Célia ZOLYNSKI, Du calcul du sujet à sa mise en pouvoir d'agir

      Résumé de la vidéo [00:00:00][^1^][1] - [01:10:00][^2^][2] :

      Cette vidéo présente la conférence de Célia Zolynski, professeur de droit du numérique à l'Université Paris 1, sur le thème "Du calcul du sujet à sa mise en pouvoir d'agir". Elle expose les enjeux de régulation des systèmes d'intelligence artificielle (IA) et les impacts potentiels de ces systèmes sur les droits et libertés fondamentaux des personnes. Elle propose de compléter l'approche actuelle du régulateur, qui consiste à protéger le sujet calculé par des obligations de transparence et de responsabilité, par une approche qui vise à mettre le sujet en pouvoir d'agir, en lui offrant des possibilités de paramétrage, de jouabilité et de curation des contenus et des services numériques.

      Points clés : + [00:00:00][^3^][3] Le contexte général de la régulation des systèmes d'IA * Les enjeux de protection des droits fondamentaux face aux impacts des systèmes d'IA * Les textes en cours de discussion au niveau européen et international * La notion de sujet calculé comme instrument de mesure des obligations imposées aux fournisseurs de systèmes d'IA + [00:19:45][^4^][4] L'approche complémentaire de la mise en pouvoir d'agir du sujet * Les limites de l'approche actuelle fondée sur la transparence et la responsabilité * Les pistes pour renforcer l'autonomie et la dignité du sujet face aux systèmes d'IA * Les exemples de paramétrage, de jouabilité et de curation des contenus et des services numériques + [00:44:45][^5^][5] Les questions et les échanges avec le public * Les modalités de mise en œuvre des obligations de transparence et d'accès aux données * Les difficultés de conciliation entre les différents textes et les différents niveaux de régulation * Les perspectives de recherche et de collaboration interdisciplinaire sur ces sujets

  14. Apr 2023
  15. Feb 2023
  16. Mar 2022
  17. Sep 2020
    1. doivent consulter des oracles

      Par exemple, pour entraîner une intelligence artificielle, le philosophe montréalais Martin Gibert propose de montrer aux IA des exemples, des modèles à suivre (des Greta et des Mère Theresa) plutôt que d’essayer de leur enseigner les concepts de la philosophie morale.

  18. Apr 2020
    1. Des applications de visites guidées intelligentes s’appuient sur un processus de gestion des flux visiteurs (Visitor Flow Management Process, VFMP) pour les orienter vers les zones où ils sont le moins nombreux. Il s’agira alors de combiner les données sur l’affluence en temps réel pour chaque espace avec les souhaits et les goûts des visiteurs pour suggérer le parcours personnalisé idéal

      Argument en faveur de l'IA qui permet bien de gérer le flux mais ajoute un second bénéfice : proposer un parcours idéal. Ce bénéfice supplémentaire peut être considéré comme un argument réthorique de type Logos.

    2. Certaines technologies intelligentes utilisées dans d’autres secteurs pourraient être transposées dans les musées. Avec le big data, il est possible de connaître l’affluence en fonction des dates et des horaires, les types de visiteurs selon les jours et les périodes, ou la durée de visite moyenne par rapport différents paramètres comme la météo.

      Argument épistémique inductif et réthorique de type logos.

      On passe à l'intelligence artificielle, technologie de pointe. Apporte du crédit à l'affirmation du bénéfice du numérique.