CHARTE IA

Ethique et Responsable

2Emotion intègre les dernières innovations IA dans un cadre éthique et responsable pour la création de vos contenus vidéos.

AI ACT

Résumé

  • Les 6 principes fondateurs de la charte IA
  • Les engagements IA éthiques et responsables de 2Emotion
  • Les engagements utilisateurs des IA

2Emotion s’engage

L’intelligence artificielle (IA) ouvre de nouvelles perspectives pour la création vidéo, en facilitant et en accélérant les processus créatifs. Cette charte définit le cadre d’un usage de l’IA éthique, responsable et aligné avec les engagements sociétaux, de cybersécurité et de conformité portés par 2Emotion. Elle s’adresse à l’ensemble des collaborateurs, partenaires et utilisateurs de la plateforme, afin de garantir une IA au service de la créativité humaine, de la protection des données et du respect des droits fondamentaux. 

« 2Emotion intègre de plus en plus de fonctionnalités IA facilitant la créativité tout en effaçant les contraintes techniques de montage vidéo. Pour éviter toute dérive, nous nous devons d’encadrer notre démarche technologique en toute transparence ; au travers d’un engagement éthique de l’utilisation de l’IA. »

Nicolas Tralongo, CEO 2Emotion

Les principes directeurs de la charte IA

Afin de garantir un usage responsable et éclairé de l’intelligence artificielle dans ses services, 2Emotion s’appuie sur six principes fondamentaux. Cette approche s’inscrit pleinement dans le cadre du Règlement européen sur l’intelligence artificielle (AI Act 2024), qui introduit une classification des niveaux de risque et impose des exigences renforcées en matière de transparence, de sécurité, de contrôle humain et de traçabilité.
2Emotion entend s’aligner sur cette ambition européenne et faire partie des entreprises moteurs d’une gouvernance proactive, pour une IA éthique, utile et maîtrisée, au service de la créativité humaine.

1. Principe de non-malfaisance

Les services d’intelligence artificielle développés ou intégrés à la plateforme 2Emotion ne doivent en aucun cas porter atteinte à un être humain, que ce soit de manière physique, morale ou psychologique. Ils doivent garantir des conditions d’usage sûres, maîtrisées et respectueuses des utilisateurs. Dans cette perspective, 2Emotion s’engage à intégrer des dispositifs de “garde-fous” afin de prévenir tout usage abusif ou préjudiciable.

2. Sécurité des données & RGPD

Intégrer de nouveaux fournisseurs d’IA dans la plateforme 2Emotion sans compromettre les mesures de cybersécurité ni les politiques de protection des données en place (RGPD). Toutes les IA intégrées sont issus de fournisseurs de services européens ou américains et doivent présenter un niveau de risque limité conformément à la classification du AI Act européen de 2024. L’objectif est de garantir la sécurité des utilisateurs face aux cyberattaques, aux usages malveillants et aux fuites accidentelles de données.

3. Principe d’autonomie

L’utilisateur reste seul décideur. Les IA présentes au sein de la plateforme 2Emotion sont toutes activables ou désactivables selon les besoins et préférences de chaque client. Leur rôle est de soutenir, enrichir et simplifier le processus de création vidéo, tout en laissant à l’utilisateur le plein contrôle de ses choix et de sa démarche créative.

4. Transparence et explicabilité

Les systèmes IA intégrés doivent être documentés et évalués selon leur niveau de criticité (conformément à AI Act européen de 2024). L’utilisateur doit pouvoir comprendre comment les IA fonctionnent, sur quelles données elles s’appuient, et comment elles influencent la création vidéo.

5. Réversibilité des systèmes

Intégrer des fonctionnalités IA modulables, désactivables à tout moment, et facilement remplaçables. L’objectif est de garantir à chaque client la possibilité d’évoluer vers des solutions plus performantes, plus transparentes ou plus alignées avec les valeurs de 2Emotion, en fonction des avancées technologiques ou des exigences éthiques.

6. Devoir de vigilance

Dans un écosystème technologique en constante évolution, où l’intelligence artificielle demeure en pleine structuration, il est essentiel d’identifier, d’anticiper et de prévenir les risques liés à son usage comme à celui des fournisseurs intégrés dans la plateforme. Cette vigilance s’applique à chaque étape : de la conception à l’intégration, jusqu’à l’usage quotidien par les utilisateurs.

Les engagements éthiques et responsables pris par 2Emotion

2Emotion s’engage pour une IA éthique et responsable au sein de sa plateforme en ligne de création vidéo. Voici les actions et engagements mis en oeuvre :

1. Cartographie des  IA utilisées  au sein de la plateforme 2Emotion

En accord avec du Règlement européen sur l’intelligence artificielle (AI Act 2024), vous trouverez la liste des fonctionnalités IA actuellement intégrées au sein de la plateforme 2Emotion avec leur niveau de risque. Liste à jour au 30/06/2025

Fonctionnalité Prestataire (Pays) Contenu transmis Niveau de risque Justification (AI Act)
Sous-titrage IA usa Audio/vidéo Risque limité Traitement linguistique, non décisionnel, non sensible. Pas listé en Annexe III.
Aide à la rédaction   IA usa Texte brut Risque minimal Assistance cognitive. Aucun impact direct sur les droits fondamentaux.
Traduction IA de vidéo usa Transcription texte Risque limité Traitement linguistique. Pas de traitement de données sensibles explicites.
Voix IA usa Texte écrit Risque limité Génération audio sans imitation réelle (≠ deepfake). Article 52 s’applique.
Amélioration audio IA usa Audio Risque limité Traitement purement technique. Aucun enjeu éthique ou social selon l’AI Act.
GenIA image europe Prompt texte Risque minimal Génération d’image sans finalité de manipulation ni d’identification. Usage créatif.
GenIA vidéo usa Prompt texte Risque limité Génération de contenu audiovisuel. Article 52 : obligation de signalement si utilisé pour tromper ou manipuler.
Image-to-vidéo usa Image + prompt Risque limité Pas de deepfake. Simulation visuelle, pas d’usage à haut risque.
Comédien IA    (avatar catalogue) usa Texte + avatar préexistant Risque limité Avatar fictif, pas de simulation d’identité réelle → échappe à la catégorie « deepfake ». Article 52 reste valable.

Les noms des fournisseurs de service IA utilisés par 2Emotion sont confidentiels mais peuvent être communiqués sur demande lors d’appel d’offre ou de contrat cadre signé.

A noter qu’un registre interne des IA utilisés au sein de 2Emotion est documenté comme le recommande l’article 29 de l’European IA Act.

2. Mise en place d’un système de  Safety Check  évolutif

Afin de prévenir les usages détournés ou non conformes de l’intelligence artificielle, 2Emotion déploie une supervision technique progressive sous la forme d’un système de “Safety Check” intégré à la plateforme.

• Le niveau 1, déjà opérationnel, repose sur la détection de mots-clés sensibles dans les prompts IA, permettant d’alerter, bloquer ou suspendre les demandes correspondant à des usages interdits ou illégaux (conformément à la charte et aux CGV de 2Emotion).
• Le niveau 2, actuellement en cours de conception, vise à renforcer l’analyse contextuelle des requêtes et à automatiser la détection de formulations détournées ou ambiguës. Il s’appuiera sur une vérification croisée avec la liste des cas d’usage interdits, pour une gouvernance IA plus fine, réactive et conforme aux attentes réglementaires (AI Act).

Ce dispositif vise à concilier innovation, liberté de création et cadre éthique sécurisé.

3.  Référent  IA

Dans un contexte réglementaire en constante évolution, 2Emotion met à disposition de ses clients un référent IA afin de garantir un accompagnement personnalisé et sécurisé dans l’usage des fonctionnalités d’intelligence artificielle. Ce référent joue un rôle clé d’interface entre la plateforme et les équipes IA, conformité, IT des entreprises clientes. Il a pour mission de :

  • faciliter la compréhension des capacités et des limites des IA intégrées dans 2Emotion,
  • s’assurer de la cohérence entre les règles internes de gouvernance IA du client et le paramétrage de son espace,
  • répondre aux demandes de documentation, attestations de sécurité, ou exigences de conformité (RGPD, AI Act, etc.),
  • accompagner l’entreprise cliente en cas de révision de ses politiques IA, ou de changement de statut réglementaire d’un fournisseur IA.

Ce dispositif reflète la volonté de 2Emotion de promouvoir une gouvernance responsable, transparente et adaptable à chaque contexte client.
Pour toute demande, le référent IA peut être contacté à l’adresse suivante : ai.compliance@2emotion.com

Ce dispositif vise à concilier innovation, liberté de création et cadre éthique sécurisé.

4. Procédure d’ activation ou de désactivation des fonctionnalités IA

Conformément au principe d’autonomie inscrit dans la charte de gouvernance IA de 2Emotion, chaque client dispose d’un contrôle total sur l’usage des fonctionnalités d’intelligence artificielle disponibles dans son espace de création vidéo.
Les IA intégrées ne sont ni imposées ni activées par défaut : leur utilisation relève d’un choix conscient et réversible de la part de l’organisation cliente. Cette logique vise à garantir un alignement maximal avec les politiques internes de gouvernance, de conformité ou de gestion des risques de chaque entreprise utilisatrice.
L’activation ou la désactivation des modules IA peut être réalisée en toute autonomie via l’interface de gestion du compte, ou bien accompagnée par l’équipe support de 2Emotion en cas de besoin.

5. Logique d’ amélioration continue

Dans un environnement technologique en constante évolution, 2Emotion adopte une logique d’amélioration continue de ses services IA, fondée sur trois principes structurants de sa gouvernance :

  • la transparence et l’explicabilité (principe 4),
  • la réversibilité des systèmes (principe 5),
  • et le devoir de vigilance (principe 6).

Cette démarche se traduit par :

  • une évaluation régulière des IA déployées, sur le plan technique, réglementaire et éthique
  • une capacité à désactiver ou remplacer rapidement un fournisseur IA si son niveau de risque évolue ou si ses pratiques ne sont plus alignées avec les engagements de 2Emotion
  • l’intégration progressive de nouvelles fonctionnalités IA, testées en amont, et introduites en cohérence avec les retours terrain, les exigences clients et les référentiels réglementaires (dont le AI Act 2024) ;
  •  un dispositif de remontée et traitement des feedbacks utilisateurs pour ajuster les usages et détecter d’éventuelles dérives.

Cette amélioration continue garantit une IA performante, maîtrisée et toujours sous contrôle humain.

Les engagements utilisateurs de la plateforme 2Emotion

L’intelligence artificielle n’exonère en rien la responsabilité humaine. Sur la plateforme 2Emotion, chaque utilisateur contribue activement à garantir un usage de l’IA conforme à l’éthique, au droit et à la finalité des outils proposés. En activant les fonctionnalités IA, l’utilisateur s’engage à les utiliser dans un cadre professionnel, légal et loyal, en cohérence avec les conditions d’usage de la plateforme.
Cela implique notamment de s’abstenir d’utiliser les fonctionnalités IA et les outils 2Emotion pour des usages interdits décrits ci-dessous :

Les  6 engagements  utilisateurs de la plateforme IA 2Emotion

1. Atteinte aux droits de propriété intellectuelle

  • Utilisation ou modification via IA de contenus médias protégés par des droits d’auteur sans autorisation préalable.
  • Téléversement ou partage de contenus en violation du droit d’auteur

2. Détournement de la finalité de l’outil

  • Usage de l’IA à des fins autres que la création vidéo dans un cadre professionnel.
  • Automatisation de comportements malveillants (ex. : diffusion massive, vidéo de désinformation, faux témoignages…).

3. Atteinte à la sécurité et à l’intégrité des systèmes

  • Tentative d’accès non autorisé à des comptes ou contenus par le biais de scripts, bots ou failles.
  • Perturbation des traitements automatisés de données (cf. Code pénal art. 323-1 et suivants).
  • Partage non autorisé d’identifiants personnels.

4. Contenus illicites ou moralement répréhensibles

  • L’utilisateur s’interdit de produire ou diffuser, via les IA de 2Emotion, tout contenu :
    à caractère injurieux, diffamatoire, haineux, raciste, xénophobe, sexiste ou violent ;
  • incitant à la haine, au suicide, au terrorisme ou à des activités criminelles ;
  • faisant l’apologie de crimes, ou contraire aux bonnes mœurs ;
  • facilitant des pratiques illégales (piratage, prostitution, contournement de sécurité, etc.).

5. Contournement de la loi ou des règles en vigueur

  • Tentative de manipulation des IA dans le but de contourner une réglementation (locale, européenne ou internationale).
  • Insertion de liens vers des contenus illicites ou usages commerciaux non autorisés.

6. Défaut de vigilance ou de signalement

  • Omission de déclarer toute usurpation d’identité, faille de sécurité ou usage frauduleux.
  • Fourniture de contenus aux IA sans vérification préalable de leur légalité.
  • Absence de signalement d’un usage inapproprié à l’adresse : ai.compliance@2emotion.com.

En contrepartie, 2Emotion s’engage à fournir une IA désactivable à tout moment, et conçue dans le respect des droits fondamentaux.
Ce cadre partagé fonde une relation de confiance, où l’IA devient un outil d’autonomie, de création et de responsabilité collective.

Découvrir les fonctionnalités IA

Des vidéos pro, à votre image. Assistées par l’IA.

Les demandes les plus fréquentes sur l’IA appliquée à la création vidéo

Non. L’IA automatise certaines tâches (montage, sous-titres, génération de scripts), mais la créativité, la stratégie et l’émotion restent humaines. L’éthique impose de valoriser le rôle du créateur et d’utiliser l’IA comme un outil, pas comme un substitut.

Pas toujours. Certains modèles sont entraînés sur des contenus protégés sans consentement. L’usage éthique consiste à vérifier les licences, privilégier des outils transparents et respecter les droits des auteurs.
👉 Chez 2Emotion, la charte IA garantit que les technologies utilisées respectent le droit d’auteur et la propriété intellectuelle. Nous n’entraînons pas nos modèles sur des contenus protégés et nous veillons à ce que chaque média exploité dans la plateforme soit soit libre de droit, soit fourni par l’utilisateur avec ses propres licences. Cette transparence fait partie intégrante de nos engagements éthiques.

Les principaux risques sont : les deepfakes trompeurs, l’appropriation de contenus protégés, la perte de diversité créative et le manque de transparence sur l’origine des images.

Les pratiques éthiques imposent un marquage clair (watermark, mention légale, métadonnées). Certains outils de détection d’IA émergent, mais actuellement cette indication est laissée à la libre appréciation du créateur de la vidéo.

Elle transforme plus qu’elle ne remplace. Les créatifs se recentrent sur la stratégie, la narration et la valeur ajoutée humaine. Les métiers évoluent vers la direction artistique et le pilotage des IA.

Oui, mais de manière encadrée. L’ European AI Act impose la transparence, l’interdiction des deepfakes non signalés et la protection des données. Il est fortement conseillé aux entreprises d’encadrer les usages IA en création de contenus de leur collaborateur à l’aide d’une charte IA indiquant les régles à respecter et avec des outils de création respectant les lois Européennes.

Actuellement il est possible de créer des textes, excercices, visuels ou extraits vidéos pour illustrer des cours ou formation. Néanmoins, la pédagogie, le scénario de formation et les contenus crées par IA doivent  être vérifiés et adaptés par un être humain.

Toujours citer la source des médias, mentionner l’usage d’IA, vérifier les droits, éviter la désinformation et garder une supervision humaine sur le contenu final.

Non. Ils peuvent être utilisés de manière créative et responsable pour le cinéma, l’éducation ou la formation, tant qu’ils sont transparents et ne visent pas à tromper. Le problème vient d’un usage malveillant.

Oui. Les modèles d’IA reflètent leurs données d’entraînement, qui peuvent contenir des biais culturels ou sociaux. Il est essentiel de superviser et d’éditer les résultats pour éviter des stéréotypes.