• Environnement

  • News

  • Innovation

  • ESG

  • Investissement à impact

  • Diversité et inclusion

  • ESG

  • IA

  • Economie circulaire

  • Voir plus

Loading
Articles dans

Environnement

1 / 1
*pour fermer le formulaire de recherche, appuyez sur ESC ou le bouton fermez

Le chemin vers une IA générative responsable, entre les technophiles et les technophobes les avis sont-ils alignés ?

  • 03/10/2023
  • 17 Min
  • 0
  • 1537

L’IA générative a fait une évolution très rapide en un temps des très court au cours de 2023. Aujourd’hui, elle est capable d’élaborer, selon les requêtes formulées par les utilisateurs, des textes en langage naturel, des présentations , des images, des vidéos, des lyrics, de la poésie ou même des romans …Entre l’émerveillement des passionnés des romans de science-fiction qui voient des chimères devenir réalité et l’angoisse des sceptiques qui voient en cette énième invention humaine un saut effrayant vers l’inconnu, le sujet n’a pas fini de susciter des questionnements et des craintes, surtout auprès des profanes. Un aperçu des avis exprimés à travers le monde peut nous aider à mieux comprendre cet enjeu qui a marqué 2023.

Cette mutation rapide est telle, qu’elle avait même effrayé les géants de la recherche et les a poussés à réclamer une « pause » au début de l’année 2023. Elon Musk, fondateur de Tesla et de Space X et Steve Wozniak, cofondateur d’Apple, ont signé une lettre ouverte « demandant aux développeurs de s’abstenir de toute nouvelle innovation pendant six mois afin que le secteur et les utilisateurs aient le temps d’assimiler les dernières avancées et d’en comprendre les enjeux ». Sam Altman, PDG d’OpenAI, l’initiateur du ChatGPT, a mis en garde contre un “risque existentiel”.

Le Centre pour la sécurité de l’IA (organisation à but non lucratif basée à San Francisco qui promeut la sécurité dans le développement et le déploiement de l’intelligence artificielle (IA) a quant à lui publié une déclaration dans laquelle il affirme que “l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires”. Les alertes ont poussé les gouvernements à accélérer le cadrage et à mettre des principes élémentaires pour préserver le bien commun.

Les cadres réglementaires :

En septembre 2023, l’Unesco, organisation internationale, rattachée à l’ONU, a publié un document concernant l’utilisation d’IA génératives telles que ChatGPT dans le cadre scolaire. L’idée est de mieux encadrer cette technologie tout en faisant bénéficier les élèves et les professeurs de ses apports. Dans son rapport, parmi les risques, l’UNESCO a soulevé la question que « les IA puissent un jour remplacer les enseignants, ce qui s’accompagnerait d’une menace pour la santé mentale des enfants, tout en les exposant à des risques de manipulation ». L’organisation des Nations unies recommande de ne pas exposer les élèves à l’intelligence artificielle avant l’âge de 13 ans tout en pointant la difficulté de gérer les problèmes d’éthique liés à cet usage.

Le parlement européen n’a pas tardé à émettre son avis et a publié l’IA Act dans un l’objectif de mettre un cadre clair pour l’usage de l’IA générative. Les grandes lignes de ce texte visent à s’assurer que les systèmes d’IA mis sur le marché européen soient sûrs et respectent les droits fondamentaux des citoyens et les valeurs de l’UE.

Même si les textes de loi antérieurs n’ont pas expressément nommé la IA, le IA Act appelle à l’application effective de la législation existante sur les droits fondamentaux et les exigences de sécurité applicables aux systèmes d’IA. Sur le plan juridique, il vise à garantir la sécurité juridique pour faciliter l’investissement et l’innovation dans l’IA.

Aux Etats Unis, un décret présidentiel datant d’octobre 2023 , impose de transmettre à l’administration les résultats des tests de sécurité réalisés lors du développement des modèles d’IA générative dès lors que ces projets présentent “un risque sérieux en matière de sécurité nationale, de sécurité économique nationale, ou de santé publique”. Le texte n’est pas contraignant et repose sur la bonne volonté des géants de ka tech pour s’y conformer et énonce des orientations en matière d’équité sans contraindre à des  (pour éviter les biais discriminatoires de l’IA).

La société civile s’active.

Des ONG s’activent aussi afin de mettre un peu d’ordre dans cette course vers la technologie la plus optimale. Ceres, une ONG américaine qui travaille avec les leaders les plus influents des marchés financiers pour résoudre les plus grands défis mondiaux en matière de développement durable.

Asha Allen, directrice du plaidoyer pour l’Europe, Online Expression & Civic Space au sein de The Center for Democracy & Technology (CDT) a commenté le AI Act  en déclarant que « de sérieuses questions demeurent quant à l’efficacité de l’application du règlement et, plus important encore, à l’efficacité des mécanismes de préservation des droits fondamentaux. La manière dont la loi fonctionnera dans la pratique et sera appliquée sera cruciale, en particulier compte tenu du contexte européen unique, dans lequel les plus grandes élections démocratiques transnationales au monde ont lieu tous les cinq ans.»

Le réseau Omidyar, a lancé un financement dédié pour promouvoir le développement inclusif et responsable de l’IA générative. L’investissement vise à construire « une infrastructure d’IA plus inclusive qui centre les impacts sociaux de l’IA générative, élève un éventail de voix diverses dans le développement et la gouvernance de l’IA, et favorise l’innovation et la concurrence pour maximiser les promesses de l’IA ».

​Plus récemment, le rapport Davos sur les risques globaux pour 2024 a pointé du doigt l’IA en tant que risque majeur : « a prolifération incontrôlée de technologies d’IA à usage général va radicalement remodeler les économies et les sociétés dans les années à venir, pour le meilleur et pour le pire ». Le rapport cite quelques exemples de ces dangers comme la désinformation, la perte d’emplois notamment l’enseignement, l’utilisation criminelle et les cyberattaques, biais de genre et discrimination.

Impossible de lister en exemples toutes les applications qui ont recours à la GEN IA pour générer des images ou des vidéos, mais le site techcrunch s’est intéressé à un rapport d’une association de parents qui surveille de près les dangers qui guettent les enfants. Le revue Common Sense Media, un groupe de défense des familles à but non lucratif qui agit aux Etats Unis, e effectué un examen indépendant des outils d’IA populaires a révélé que beaucoup d’entre eux, notamment My AI, DALLE et Stable Diffusion de Snapchat, pourraient ne pas être sans danger pour les enfants. Common Sense Media est connu pour « fournir des évaluations médiatiques aux parents qui souhaitent évaluer les applications, les jeux, les podcasts, les émissions de télévision, les films et les livres que consomment leurs enfants ». Les évaluations mises en ligne proposent des « étiquettes nutritionnelles » pour les produits d’IA, comme les chatbots, les générateurs d’images, etc.

Les produits qu’il évalue reposent sur plusieurs principes de l’IA, notamment la confiance, la sécurité des enfants, la confidentialité, la transparence, la responsabilité, l’apprentissage, l’équité, les liens sociaux et les avantages pour les personnes et la société.

“L’IA n’est pas toujours correcte et n’est pas non plus neutre en termes de valeurs”, a fait remarquer Tracy Pizzo-Frey, conseillère principale en IA chez Common Sense Media, dans un résumé des notes. « Toute IA générative, du fait que les modèles sont formés sur des quantités massives de données Internet, héberge une grande variété de préjugés culturels, raciaux, socio-économiques, historiques et sexistes – et c’est exactement ce que nous avons découvert dans nos évaluations, ” dit-elle.

Les biais de genre et de race qui pourraient de cacher dans les informations générées par “Nous espérons que nos notes encourageront davantage de développeurs à mettre en place des protections qui limitent la propagation de la désinformation et à contribuer à protéger les générations futures des répercussions involontaires.”

Pour répondre au rapport de l’UNESCO, Open AI avait déjà justement publié un guide à destination des professeurs qui utilisent son modèle de langage.

« Nous nous soucions profondément de la sécurité et de la confidentialité de tous ceux qui utilisent nos outils, y compris les jeunes, c’est pourquoi nous avons intégré des garde-fous et des mesures de sécurité solides dans ChatGPT et laissons les utilisateurs choisir quand leurs conversations sont utilisées pour améliorer nos modèles”, a déclaré le porte-parole d’Open AI. “Nous exigeons que les utilisateurs âgés de 13 à 17 ans aient l’autorisation parentale pour utiliser nos outils et n’autorisons pas les enfants de moins de 13 ans à utiliser nos services”.

Un autre exemple de prise de parole d’acteurs majeurs dans le secteur de l’IA, Microsoft qui a indiqué dans son blog qu’il « explore différentes méthodes de garantie de l’âge, nous permettant d’apprendre et d’améliorer nos pratiques et nos solutions. Nous collaborons avec des organisations techniques et autres telles que l’Organisation internationale de normalisation (ISO) pour aider à développer des cadres visant à prendre en charge des technologies de garantie de l’âge interopérables et protectrices de la vie privée ».

Sources :