Article Droit de la propriété intellectuelle, média et art Fonctions supports | 02/02/23 | 8 min. | Pierre Pérot Inès Bouzayen
L’utilisation de ChatGPT peut engendrer des détournements (par ex., génération de contenus violents, diffamatoires ou contrefaisants). De même, les erreurs ou inexactitudes des contenus générés (faux diagnostics médicaux, conseils juridiques ou financiers erronés ou risqués, par exemple) sont sources de nombreux risques et interrogent sur la responsabilité de ChatGPT.
En propriété intellectuelle, le risque suscité par l’IA est celui de la génération d’un contenu portant atteinte à des droits antérieurs. Il peut s’agir, par exemple, d’un texte littéraire empruntant des extraits d’œuvres d’un auteur préexistant, d’une chanson générée qui serait l’adaptation d’un texte d’un autre genre, etc.
L’article L122-4 CPI dispose à cet égard que « Toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite. Il en est de même pour la traduction, l'adaptation ou la transformation, l'arrangement ou la reproduction par un art ou un procédé quelconque ».
ChatGPT intervient à deux reprises, en vue de la génération du contenu final, qui doivent être distinguées pour apprécier son éventuelle responsabilité.
Cette phase pourrait être susceptible de bénéficier de l’exception prévue en matière de data mining, telle que prévue par l’article 4 de la Directive n°2019/790 sur le droit d’auteur et les droits voisins[1]. Une réserve toutefois : la directive prévoit qu’une telle exception ne s’applique qu’à la condition qu’il existe une possibilité d’opt out pour les titulaires de droits, leur permettant de réserver l’utilisation de leurs œuvres et autres contenus protégés.[2]
A défaut de mise à disposition du contenu au public, les voies d’action à l’encontre de ChatGPT au titre de la contrefaçon semblent particulièrement limitées.
Par ailleurs, à noter que le code de la propriété intellectuelle ne sanctionne la fourniture d’un logiciel destiné à la mise à disposition du public non autorisée d’œuvres ou objets protégés qu’à la condition que ce logiciel soit manifestement destiné à un usage illicite (art. L335-2-1, CPI). Sans démonstration par ChatGPT de la connaissance du caractère illicite du contenu, sa responsabilité pourrait être difficile à mettre en œuvre sur ce fondement.
La réponse apportée par Chat GPT sur la question de sa responsabilité attachée aux contenus est plutôt lacunaire : « Cela dépend de l’utilisation qui en est faite. Les développeurs ou les utilisateurs de ChatGPT ont la responsabilité de s'assurer qu'ils utilisent cet outil de manière éthique et responsable, en respectant les lois et les règles en vigueur, ainsi que les droits des individus et des entreprises. ».
En contournant la question relative à sa propre responsabilité, ChatGPT soulève la question de la responsabilité de l’utilisateur lui-même.
L’utilisateur s’expose, tout d’abord, à la violation potentielle des conditions générales de ChatGPT. On note en effet que celles-ci interdisent notamment l’utilisation du contenu généré par l’IA à des fins illicites (notamment contrefaisantes)[3].
L’utilisateur pourrait, par ailleurs, conserver l’entière responsabilité attachée à l’usage ultérieur des contenus générés à sa demande, en application du droit commun de la responsabilité civile.
C’est l’utilisateur qui sera seul à l’origine de l’acte créant le dommage (publication et diffusion du contenu).
Il en est de même concernant le risque de contrefaçon qui serait dû à la diffusion par l’utilisateur du contenu généré par ChatGPT. Il est d’ailleurs rappelé que la responsabilité de l’utilisateur pourrait être engagée y compris en l’absence de connaissance du caractère contrefaisant des contenus, la bonne ou mauvaise foi étant indifférente à la caractérisation de la contrefaçon devant la juridiction civile[4].
***
La Commission européenne a publié le 28 septembre 2022 une proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’IA, laquelle se propose d’apporter un cadre plus précis en la matière[5].
Cette directive organise un nouveau système de responsabilité favorable aux victimes d’un dommage résultant de l’utilisation d’une IA, qui fera l’objet d’un prochain article sur notre site.
Dans l’attente de l’entrée en vigueur de cette règlementation, la jurisprudence aura un rôle primordial à jouer dans la fixation d’un cadre adapté à ces nouveaux enjeux, afin d’apporter davantage de sécurité juridique.
[1] Art. 4, 1. Dir. N°2019/790 : « Les États membres prévoient une exception ou une limitation aux droits prévus à l'article 5, point a), et à l'article 7, paragraphe 1, de la directive 96/9/CE, à l'article 2 de la directive 2001/29/CE, à l'article 4, paragraphe 1, points a) et b), de la directive 2009/24/CE et à l'article 15, paragraphe 1, de la présente directive pour les reproductions et les extractions d'œuvres et d'autres objets protégés accessibles de manière licite aux fins de la fouille de textes et de données. »
[2] Art. 4, 3. Dir. N°2019/790 : « L'exception ou la limitation prévue au paragraphe 1 s'applique à condition que l'utilisation des œuvres et autres objets protégés visés audit paragraphe n'ait pas été expressément réservée par leurs titulaires de droits de manière appropriée, notamment par des procédés lisibles par machine pour les contenus mis à la disposition du public en ligne. »
[3] https://openai.com/terms/, art. 2, a. et c. (version du 13 déc. 2022) : “(a) Use of Services. You may access, and we grant you a non-exclusive right to use, the Services in accordance with these Terms. You will comply with these Terms and all applicable laws when using the Services. We and our affiliates own all rights, title, and interest in and to the Services. (…) (c) Restrictions. You may not (i) use the Services in a way that infringes, misappropriates or violates any person’s rights (…).”
[4] Cour de cassation, civile, Chambre civile 1, 10 juillet 2013, 12-19.170.