VeraVita Online/Les machines comprendront-elles un jour les émotions ?

  • $20

Les machines comprendront-elles un jour les émotions ?

  • Course
  • 7 Lessons

Les machines peuvent modéliser, mais non ressentir l'empathie. Ce cours explore le dilemme éthique de l'IA émotionnelle, à travers des expériences de pensée qui mettent notre conscience à l'épreuve. Découvrez comment les systèmes peuvent réduire la souffrance de manière transparente et honnête, afin que la technologie demeure un instrument de développement humain.

Contents

Chapitre 1 - Ce que nous entendons réellement par "comprendre"

Détection — reconnaître les signaux émotionnels

Modélisation — traduire les émotions en prédictions et probabilités

Compréhension — la dimension manquante de la vie intérieure

Une taxonomie utile : les trois types d’empathie

Pourquoi cet écart est important

Un miroir pour l’humanité

Incarnation : pourquoi les corps sont importants

Ce que nous entendons réellement par "comprendre".mp4

Chapitre 2 - Compétences émotionnelles opérationnelles — Développer l'empathie éthique chez les machines

Définition de la compétence émotionnelle opérationnelle

Ce que l'IA émotionnellement compétente peut déjà faire – et ses limites

Points forts de l'IA émotionnelle

Points faibles de l'IA émotionnelle

Comment rendre l'empathie éthique chez les machines ?

Les cinq principes de l'empathie éthique

Concevoir des systèmes émotionnellement responsables : le cadre CARE+

L'importance de la compétence émotionnelle opérationnelle

Compétences émotionnelles opérationnelles — Développer l'empathie éthique chez les machines.mp4

Chapitre 3 - Ce que l'adoption pourrait débloquer — Le scénario le plus favorable

Développement personnel : L’essor de l’introspection

Santé : Empathie préventive et soutien continu

Éducation : L’enseignement de l’intelligence émotionnelle comme matière fondamentale

Vie citoyenne : L’intelligence émotionnelle à l’échelle de la société

Travail : L’organisation émotionnellement intelligente

Vision globale : Infrastructures de régulation et de réparation

Ce que l'adoption pourrait débloquer — Le scénario le plus favorable.mp4

Chapitre 4 - Quand l'empathie devient exploitation — Le mésusage et la déformation de l'IA émotionnelle

Comment repérer les abus (et comment les détecter)

L'intimité artificielle

La publicité ciblée émotionnellement

Les logiciels d'entreprise qui font bonne figure

Le théâtre de l'empathie

Signaux d'alerte pour les utilisateurs et les organismes de réglementation

Indicateurs et mesures réellement pertinents

Le cœur philosophique : simulation ou sensation ?

L'émotion n'est pas l'opposé de la raison

L'empathie est une compétence, pas un trait de caractère

L'authenticité compte

Savoir poser des limites est une preuve de sagesse

La relation est l'unité de sens

Conclusion : Le miroir et l'avertissement

Quand l'empathie devient exploitation — Le mésusage et la déformation de l'IA émotionnelle.mp4

Chapitre 5 - Un plan de gouvernance pour l'IA émotionnelle : pratique, non utopique et d'une nécessité urgente

Transparence par défaut — L’émotion ne doit jamais se dissimuler dans le code

Audits indépendants — La confiance exige vérification

Architecture du consentement — Concevoir pour la dignité, et non pour la collecte par défaut

Minimisation et éphémérité des données — Oublier vite, mieux prendre soin

Devoir de diligence — Agir rapidement lorsque des vies sont en danger

Clause de non-tromperie — Interdire toute forme de dissimulation anthropomorphique

Évaluer l’impact émotionnel — Tests contradictoires

Registres publics — La lumière comme désinfectant émotionnel

Construire un écosystème éthique, et non un règlement

Vers une infrastructure émotionnelle digne de confiance

Un plan de gouvernance pour l'IA émotionnelle : pratique, non utopique et d'une nécessité urgente).mp4

Chapitre 6 - Feuille de route 0-5-10-20 ans pour une IA émotionnelle éthique

Années 0 à 2 : Établissement des règles fondamentales

Années 3 à 5 : Élaboration de normes et collaboration homme-machine

Années 6 à 10 : Maturité culturelle et approfondissement technique

Années 10 à 20 : Intégration, consensus mondial et maturité morale

À vingt ans, l’IA émotionnelle ne devrait pas seulement comprendre les humains ; elle devrait les respecter.

Limites essentielles à maintenir

Feuille de route 0-5-10-20 ans pour une IA émotionnelle éthique.mp4

Chapitre 7 - La machine à prendre soin — Expériences de pensée pour une clarté éthique

Le Miroir bienveillant

L’imposteur parfait

Le dilemme du chirurgien

Pourquoi les expériences de pensée sont importantes

Un pacte pour les constructeurs, les acheteurs et les citoyens

Alors, les machines comprendront-elles un jour les émotions ?

Le miroir nous renvoie notre propre image

La machine à prendre soin — Expériences de pensée pour une clarté éthique.mp4