Putting principles into practice: Adobe’s approach to AI ethics

Source de l’image : your123 , Adobe Stock.

Aujourd’hui, les entreprises ajoutent de plus en plus d’intelligence artificielle (IA) et d’apprentissage automatique (ML) à leurs produits pour mieux servir leurs clients. Chez Adobe, avec des centaines de fonctionnalités optimisées par Adobe Sensei, notre moteur d’IA aide les organisations à offrir des expériences plus personnalisées, permet aux gens de faire passer leur créativité au niveau supérieur et permet aux utilisateurs de faire des choses en quelques secondes qui prendraient autrement des heures. Avec plus d’une décennie d’expérience dans l’intégration de l’IA et du ML dans les outils Adobe, il est clair que lorsqu’elle est bien faite, l’IA peut largement améliorer la création, la diffusion et l’optimisation des expériences numériques.

Il est également clair que les consommateurs d’aujourd’hui voient la valeur des technologies émergentes : selon une récente enquête d’Adobe, 70 % des consommateurs déclarent faire confiance à l’IA pour améliorer leur expérience avec une marque. Mais pour utiliser l’IA de la manière la plus utile, nous devons reconnaître les défis uniques posés par cette technologie. L’IA n’est aussi bonne que les données avec lesquelles elle s’entraîne. Et même avec de bonnes données, vous pouvez vous retrouver avec une IA biaisée qui discrimine ou humilie involontairement et fait que les gens se sentent moins précieux.

Chez Adobe, nous nous efforçons constamment d’améliorer l’IA pour tous. C’est pourquoi nous avons créé un programme complet d’éthique de l’IA pour nous assurer que nous développons des technologies d’IA pour nos clients et nos communautés de manière éthique, responsable et inclusive. Adobe, l’une des entreprises les plus innovantes au monde depuis près de 40 ans, prend l’impact de notre technologie aussi au sérieux que le développement de la technologie.

Plus qu’un mot de mode

Lorsque nous avons commencé à construire notre programme d’éthique de l’intelligence artificielle il y a deux ans, nous avons adopté une approche délibérative et réfléchie. Cela a commencé par identifier les principes éthiques que nous suivons lors du développement de technologies basées sur l’IA.

Nous avons créé un comité d’éthique de l’IA composé d’un groupe d’employés Adobe interfonctionnel allant des ingénieurs de recherche aux développeurs de produits, en passant par les équipes juridiques, etc., de sexe, de race et d’horizons professionnels. Il est important d’avoir un comité diversifié pour évaluer les innovations à partir d’une variété de perspectives et peut aider à identifier les problèmes potentiels qu’une équipe moins diversifiée peut ne pas voir. Ensemble, le comité a défini les principes d’éthique de l’IA d’Adobe en matière de responsabilité, de responsabilité et de transparence.

Nous disons qu’il ne suffit plus d’offrir la meilleure technologie au monde pour créer des expériences numériques avec responsabilité et responsabilisation. Nous voulons nous assurer que notre technologie est conçue pour l’inclusion et respecte nos clients, nos communautés et nos valeurs Adobe. Plus précisément, cela signifie développer de nouveaux systèmes et processus pour évaluer si notre IA crée des biais préjudiciables. La transparence signifie être ouvert sur la façon dont nous utilisons l’IA avec nos clients et fournir des mécanismes de rétroaction pour signaler les problèmes concernant nos outils ou applications d’IA alimentés par l’IA. Nous voulons faire voyager nos clients et travailler avec notre communauté pour concevoir et mettre en œuvre l’IA de manière responsable.

Avoir un ensemble de principes concis, simples et applicables alignés sur nos valeurs d’entreprise spécifiques est essentiel pour les opérationnaliser dans notre ingénierie.

pratiquer ce que nous prêchons

Alors, à quoi ressemble exactement « rendre nos principes opérationnels » ? De la conception au développement et au déploiement, nous avons établi des processus standardisés qui incluent la formation, les tests et un processus d’examen supervisé par divers comités d’examen éthique de l’IA.

Dans le cadre de ce processus, les ingénieurs effectuent une évaluation éthique de l’IA en plusieurs parties pour saisir l’impact éthique potentiel des innovations basées sur l’IA. Pour la plupart des produits et fonctionnalités, l’évaluation d’impact ne présente pas de risque éthique significatif. Prenons, par exemple, un outil de sélection de polices Adobe qui utilise l’IA pour aider les clients à choisir différentes polices. Après l’évaluation initiale, le produit a répondu à nos normes d’approbation. Dans d’autres cas, les produits sont soumis à un examen plus approfondi.

Avant son lancement à l’automne 2020, nous avons examiné la fonctionnalité Photoshop Neural Filters, qui permet aux utilisateurs d’ajouter des filtres non destructifs et productifs aux images à l’aide de l’IA/ML pour créer des choses qui n’existaient pas auparavant. Pensez : ajouter de la couleur à des photos en noir et blanc, changer l’expression de quelqu’un de triste à heureux, changer de coiffure, etc. Nous savions que les filtres neuronaux permettraient aux créateurs d’effectuer des ajustements convaincants et d’accélérer le processus d’édition d’images. Mais nous voulions nous assurer qu’ils produisaient des résultats qui reflétaient fidèlement les caractéristiques humaines réelles et ne perpétuaient pas de préjugés nuisibles. Grâce à un processus d’examen technique rigoureux, Neural Filters reflète et respecte les caractéristiques humaines et est devenu un énorme succès parmi les créateurs du monde entier.

La collaboration est la clé

Alors que différentes entreprises ont leurs propres évaluations uniques de l’IA, le besoin de normes éthiques est universel en ce qui concerne l’IA. Alors que nous continuons à développer le programme d’éthique de l’IA d’Adobe, nous partageons nos connaissances et nos meilleures pratiques avec nos pairs du secteur. Nous avons contribué au code de pratique de l’industrie de l’éthique de l’IA de Software Alliance BSA afin que d’autres entreprises puissent bénéficier du travail déjà effectué dans ce domaine – et en tant que membre fondateur du Partenariat sur l’éthique de l’IA, des organisations universitaires, civiques, industrielles et médiatiques auront le meilleur aperçu de l’avenir de cette technologie émergente, en abordant des questions importantes et difficiles.

Nous reconnaissons que le développement de l’IA et l’examen éthique de l’IA sont un processus continu. Au fur et à mesure que nous continuons à apprendre et à grandir, nous travaillerons avec nos employés, nos clients et nos communautés pour proposer une innovation qui reflète nos valeurs Adobe et pour respecter notre engagement en faveur d’un développement technologique responsable.

En savoir plus sur le code de déontologie de l’IA d’Adobe ici.

Cette histoire a été diffusée à l’origine sur CNBC.

Leave a Comment