Connaissez-vous les risques juridiques de l’utilisation de I par écrit? L’avocat Delli Ponti vous explique ce que vous devez savoir
L’intelligence artificielle révolutionne la façon dont nous créons du contenu, offrant des outils puissants pour générer des textes en quelques secondes. Cependant, derrière cette innovation, ils se cachent les risques juridiques de ne pas être sous-estimés – Comme nous l’avons prévu en parlant duUtilisation de l’intelligence artificielle dans la rédaction – surtout dans le domaine de responsabilité, Copyright et protection des données.
Qui détient les droits sur un texte écrit par l’IA? Est-il possible de violer le droit d’auteur même sans le savoir? Et quels sont les conséquences juridiques Si l’IA génère des informations incorrectes ou diffamatoires? À ces questions et à d’autres, il nous a répondu Alessandra Delli Pontiavocat expert en droit des nouvelles technologies et de la vie privée et fondateur du cabinet d’avocats du Ponti.
Quels sont les risques, du point de vue juridiques, pour utiliser le contenu écrit par l’intelligence artificielle?
D’un point de vue juridique, les risques d’utilisation de l’intelligence artificielle par écrit sont différents. Je crois que le principal est représenté par droit d’auteur. Il y a deux points critiques:
- La première concerne le Protection des textes utilisés par l’IA et l’algorithme;
- le second a à voir avec le protection deou toute protection ou protection du contenu généré par l’intelligence artificielle.
Sur ce deuxième aspect, nous spécifions que dans la réglementation principale (comme l’UE, les États-Unis et le Royaume-Uni), le droit d’auteur est reconnu seulement aux œuvres créées par des êtres humains. En réalité, les deux points critiques sont étroitement liés les uns aux autres. En fait, les IAS génératifs sont formés sur de grandes quantités de données, souvent tirées du Web. Si le contenu produit par l’IA comprend des parties des travaux existants et protégés par le droit d’auteur, l’utilisateur qui l’utilise pourrait être tenu responsable d’une violation, même inconsciemment.
Mais ce n’est pas seulement le droit d’auteur qui peut représenter un risque juridique. Si l’intelligence artificielle génère Contenu incorrect ou nocifCHi use, il pourrait être tenu responsable de la diffamation ou même des dommages de réputation à des tiers. En fait, les informations générées par l’IA peuvent être incorrectes, obsolètes ou trompeuses, avec des conséquences juridiques potentielles pour ceux qui les ont répandus. En outre, l’IA pourrait conduire au traitement des données personnelles des personnes naturelles sans leur consentement ou en tout cas d’une manière non conforme aux règles de protection des données, telles que le RGPD.
L’utilisation du contenu créé par l’intelligence artificielle peut donc impliquer des risques juridiques qui ne devraient pas être sous-estimés. Cependant, ceux-ci ne doivent pas représenter un obstacle, mais être un guide pour une utilisation consciente d’une technologie extrêmement utile.
Se concentrant sur le plagiat et la violation du droit d’auteur, pourquoi et dans quels cas cela peut-il représenter un risque concret?
Sans aucun doute, l’un des risques est de tomber dans le So-appelé « plagiat »terme avec lequel il est signifié l’appropriation indue, totale ou partielle d’une œuvre d’ingéniosité des autresle présentant comme le sien, sans l’autorisation de l’auteur et sans attribuer sa paternité, en violation des règles sur le droit d’auteur.
En ce qui concerne le plagiat d’un texte, la référence est donc renvoyée à la reproduction non autorisée d’une œuvre écrite, en violation des droits exclusifs de l’auteur. Le plagiat peut être à la fois total et partiel, mais aussi, pour ainsi dire, « conceptuel »: dans ce cas, il ne copie pas exactement le texte, mais sa structure ou ses idées sont reproduites de manière identique ou presque. Normalement, pour établir si un travail a été plagié, divers éléments sont analysés, par exemple L’utilisation d’expressions égales ou très similairesla structure narrative, la séquence des événements et des sujets, ou le style et la forme.
La violation du droit d’auteur peut concerner à la fois l’exploitation économique illégale d’une œuvre d’autrui (lésion des droits de propriété) et l’attribution indue de la paternité de l’œuvre (blessure des droits moraux), étant deux profils distincts mais tous deux protégés par la législation actuelle. La législation sur le droit d’auteur est désormais une législation solide avec des outils de protection efficaces qui permettent la possibilité d’obtenir une compensation pour des dommages-intérêts ou de bloquer la propagation des travaux copiés.
Selon les règles actuelles, qui peut se définir comme l’auteur d’un contenu écrit par l’intelligence artificielle?
Actuellement, sur la base des lois italiennes et européennes sur le droit d’auteur, un contenu écrit par l’intelligence artificielle ne peut pas avoir un auteur humain reconnu automatiquement. Parce que parce que La législation ne protège que les créations dérivant de l’ingéniosité humaineà l’exclusion des travaux générés entièrement par des machines. Si l’intelligence artificielle est utilisée comme un outil, La personne pourrait revendiquer la paternité S’il a apporté sa propre contribution créative importante. La responsabilité de toute inexactitude ne peut être que de la personne qui utilise ou s’approprie le texte généré par l’intelligence artificielle.
Quelles sont les pratiques à éviter, dans l’utilisation de l’IA, afin de ne pas risquer de subir des problèmes juridiques possibles?
Le premier conseil est ne pas faire confiance à l’aveugle intelligence artificielle. Il est donc recommandé de Vérifiez toujours la source et l’originalité des textes: À cet égard, il existe un logiciel anti-plagiat pour l’exemple, Paysage copysal, Changement Et Grammaire – Pour vérifier la similitude avec le contenu déjà publié. En outre, il est important de contrôler les informations et les sources car l’IA peut tomber dans l’erreur, et l’utilisation de mauvais contenus peut également être un risque pour l’auteur.
En plus de cela, c’est toujours mieux apporter des modifications et personnaliser le texte proposé par l’IA pour éviter l’hypothèse du plagiat involontaire: si l’intelligence artificielle ne représente qu’un support et que l’utilisateur apporte des changements significatifs, en fait, ce dernier peut être considéré comme l’auteur, réduisant sans aucun doute le risque de plagiat, trop au courant.
Ensuite, il y a un autre problème: la transparence. C’est l’obligation (ou le conseil) de Indiquer si l’intelligence artificielle a été utilisée pour la production d’un texte. Actuellement, il n’y a pas de législation italienne spécifique qui impose l’obligation générale de déclarer l’utilisation de l’IA dans la production de textes. Cependant, le projet de loi sur l’intelligence artificielle en Italie contient certaines dispositions qui, s’ils adoptent, nécessiteraient une transparence sur l’utilisation de cet outil dans certains secteurs. Non seulement cela: au niveau européen, ACT introduit des obligations de transparence pour les fournisseurs de systèmes d’intelligence artificielle. En particulier, les fournisseurs doivent prendre des mesures pour garantir la sécurité et la protection des données, ainsi que pour informer les utilisateurs de l’utilisation de l’IA.
En résumé, bien qu’il n’y ait aucune obligation générale de déclarer l’utilisation de l’IA dans la production de textes, les réglementations émergentes en Italie et dans l’Union européenne introduisent des exigences de transparence dans des secteurs spécifiques. Il est donc conseillé de rester à jour sur les évolutions législatives pour garantir le respect des réglementations actuelles.
En regardant vers l’avenir, comment le cadre réglementaire de référence évoluera-t-il?
Dans ce domaine, l’avenir réglementaire est représenté par Règlement sur l’intelligence artificielle (ACT). Parlons du Règlement de l’UE 1689/2024approuvé l’année dernière, qui prévoit des opérations par phases. À partir du 2 février 2025, par exemple, les dispositions de la loi sur l’IA relative aux systèmes qui impliquent des risques inacceptables et de l’alphabétisation numérique sont opérationnels.
En ce qui concerne le thème des textes et des contenus générés par l’intelligence artificielle, ACT contient également des références intéressantes au droit d’auteur. En général, par le biais des lois, le législateur a voulu poursuivre la promotion de la législation unitaire et, par conséquent, fait référence et reprend le contenu de la loi sur le droit d’auteur. En fait, en considérant 105 et 106 Impose aux fournisseurs des systèmes d’IA une obligation générale de remplir la législation législative européenne.
Considérant 105, souligne l’importance de respecter les droits des auteurs et des propriétaires des textes utilisés pour former des modèles d’intelligence artificielle.
En fait, les modèles utilisent souvent la technique d’extraction de texte et donc des données «d’exploration de données et de données» à travers lesquelles il est possible d’accéder à de grandes quantités de textes, d’images, de vidéos et d’autres données. Tout le monde ne sait pas, cependant, que ces contenus sont souvent protégés par le droit d’auteur.
L’obligation de transparence, selon la loi
Un autre point intéressant concerne leobligation de transparence à quoi nous avons mentionné. En ce qui concerne le contenu généré à l’aide d’un système d’IA, en fait, l’art. 50 Le paragraphe 4 de la loi sur l’IA prévoit les déploieurs (c’est-à-dire les « distributeurs » ou « utilisateurs » des systèmes ai) les obligations suivantes:
«
« . »
Bien sûr, l’application pratique de cette règle sera un banc de test intéressant, en particulier pour les créations numériques, et son interprétation présente déjà des profils douteux. Ici, alors, quelques détails supplémentaires que le même règlement nous fournit:
- En relation avec les images et le contenu audio ou vidéoConsidérant 134 définit le concept de faux profond et, par conséquent, lorsque l’obligation de transparence est appliquée. En particulier, les déploieurs sont tenus de savoir clairement et distinctement que le contenu a été créé artificiellement ou manipuler lorsque les images ou le contenu audio et vidéo ressemblaient remarquablement personne (faux profond). Dans ce cas, les déploieurs devront donc étiqueter les productions révélant leur origine artificielle.
- Par rapport aux textes générés à l’aide d’un système d’IAl’obligation de faire savoir que le texte a été créé à l’aide d’un système d’IA s’applique si le texte a pour but d’informer le public des questions d’intérêt public. L’obligation, cependant, ne s’applique pas si le texte a été examiné par un être humain. Dans cette dernière hypothèse, la question concernera les façons de fournir la preuve que le contenu publié n’est pas la simple sortie d’une machine, mais le résultat d’un traitement humain.
L’équipe Noetica expérimente depuis longtemps les compétences en IA dans la production de textes. Nous réalisons son potentiel et nous pensons qu’il est essentiel de l’intégrer dans les processus de travail, mais les paroles de l’avocat Delli Ponti confirment ce que nous pensons depuis un certain temps: la contribution humaine est irremplaçable. L’intelligence artificielle peut être utilisée mais consciemment, consciente du fait qu’elle nécessite une surveillance minutieuse des figures d’experts.