Pourquoi intégrer l’éthique et les principes de l’IA dans votre organisation est essentiel


Vous n’avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.


À mesure que la technologie progresse, les chefs d’entreprise comprennent la nécessité d’adopter des solutions d’entreprise tirant parti de l’intelligence artificielle (IA). Cependant, il y a une hésitation compréhensible en raison des implications autour de l’éthique de cette technologie – est IA intrinsèquement biaisée, raciste ou sexiste ? Et quel impact cela pourrait-il avoir sur mon entreprise ?

Il est important de se rappeler que les systèmes d’IA ne sont intrinsèquement rien. Ce sont des outils construits par des humains et qui peuvent maintenir ou amplifier les préjugés qui existent chez les humains qui les développent ou ceux qui créent les données utilisées pour les former et les évaluer. En d’autres termes, un modèle d’IA parfait n’est rien de plus que le reflet de ses utilisateurs. En tant qu’êtres humains, nous choisissons les données utilisées dans l’IA et le faisons malgré nos préjugés inhérents.

En fin de compte, nous sommes tous sujets à une variété de préjugés sociologiques et cognitifs. Si nous sommes conscients de ces préjugés et mettons continuellement en place des mesures pour aider à les combattre, nous continuerons à progresser dans la minimisation des dommages que ces préjugés peuvent causer lorsqu’ils sont intégré à nos systèmes.

Examiner l’IA éthique aujourd’hui

L’accent mis par l’organisation sur l’éthique de l’IA comporte deux volets. Le premier est lié à la gouvernance de l’IA qui traite de ce qui est permis dans le domaine de l’IA, du développement à l’adoption, en passant par l’utilisation.

Événement

MetaBeat 2022

MetaBeat réunira des leaders d’opinion pour donner des conseils sur la façon dont la technologie métaverse transformera la façon dont toutes les industries communiquent et font des affaires le 4 octobre à San Francisco, en Californie.

Inscrivez-vous ici

La seconde touche Éthique de l’IA des recherches visant à comprendre les caractéristiques inhérentes aux modèles d’IA du fait de certaines pratiques de développement et leurs risques potentiels. Nous pensons que les enseignements tirés de ce domaine continueront à devenir plus nuancés. Par exemple, la recherche actuelle est largement axée sur les modèles de base et, dans les prochaines années, elle se tournera vers des tâches en aval plus petites qui peuvent soit atténuer, soit propager les inconvénients de ces modèles.

L’adoption universelle de l’IA dans tous les aspects de la vie nous obligera à réfléchir à son pouvoir, à son objectif et à son impact. Cela se fait en se concentrant sur l’éthique de l’IA et en exigeant que l’IA soit utilisée de manière éthique. Bien sûr, la première étape pour y parvenir est de trouver un accord sur ce que signifie utiliser et développer l’IA de manière éthique.

Une étape vers l’optimisation des produits pour des résultats équitables et inclusifs consiste à disposer d’ensembles de données de formation, de développement et de test équitables et inclusifs. Le défi est que la sélection de données de haute qualité est une tâche non triviale. Il peut être difficile d’obtenir ce type d’ensembles de données, en particulier pour les petites startups, car de nombreuses données de formation facilement disponibles contiennent des biais. En outre, il est utile d’ajouter des techniques de débiaisation et des processus d’évaluation de modèle automatisés au processus d’augmentation des données, et de commencer par des pratiques approfondies de documentation des données dès le début, afin que les développeurs aient une idée claire de ce dont ils ont besoin pour augmenter les ensembles de données qu’ils décident. utiliser.

Le coût d’une IA impartiale

Les drapeaux rouges existent partout, et les leaders technologiques doivent être ouverts à les voir. Étant donné que les biais sont dans une certaine mesure inévitables, il est important de considérer le cas d’utilisation principal d’un système : les systèmes de prise de décision qui peuvent affecter des vies humaines (c’est-à-dire des systèmes automatisés reprendre le dépistage ou la police prédictive) ont le potentiel de causer des dommages incalculables. En d’autres termes, l’objectif central d’un modèle d’IA peut en soi être un signal d’alarme. Les organisations technologiques devraient examiner ouvertement l’objectif d’un modèle d’IA pour déterminer si cet objectif est éthique.

En outre, il est de plus en plus courant de s’appuyer sur des ensembles de données volumineux et relativement non organisés (tels que Common Crawl et ImageNet) pour former des systèmes de base qui sont ensuite « réglés » sur des cas d’utilisation spécifiques. Il a été démontré à plusieurs reprises que ces grands ensembles de données récupérés contiennent un langage activement discriminatoire et/ou des biais disproportionnés dans la distribution de leurs catégories. Pour cette raison, il est important que les développeurs d’IA examinent en profondeur les données qu’ils utiliseront dès la genèse de leur projet lors de la création d’un nouveau système d’IA.

Moins cher au final

Comme mentionné, les ressources des startups et de certaines entreprises technologiques peuvent entrer en jeu avec les efforts et les coûts investis dans ces systèmes. Les modèles d’IA éthiques entièrement développés peuvent certainement sembler plus coûteux au début de la conception. Par exemple, la création, la recherche et l’achat d’ensembles de données de haute qualité peuvent être coûteux en termes de temps et d’argent. De même, l’augmentation des ensembles de données manquants peut prendre du temps et des ressources. Il faut également du temps, de l’argent et des ressources pour trouver et embaucher des candidats diversifiés.

À long terme, cependant, la diligence raisonnable deviendra moins coûteuse. Par exemple, vos modèles seront plus performants, vous n’aurez pas à faire face à des erreurs éthiques à grande échelle et vous ne subirez pas les conséquences d’un préjudice soutenu à divers membres de la société. Vous dépenserez également moins de ressources pour mettre au rebut et reconcevoir des modèles à grande échelle qui sont devenus trop biaisés et difficiles à réparer – des ressources qui sont mieux dépensées pour des technologies innovantes utilisées pour le bien.

Si nous sommes meilleurs, l’IA est meilleure

L’IA inclusive exige que les leaders technologiques tentent de manière proactive de limiter les préjugés humains qui alimentent leurs modèles. Cela nécessite de mettre l’accent sur l’inclusion non seulement dans l’IA, mais dans la technologie en général. Les organisations doivent réfléchir clairement à l’éthique de l’IA et promouvoir des stratégies pour limiter les biais, telles que des examens périodiques des données utilisées et pourquoi.

Les entreprises doivent également choisir de vivre pleinement ces valeurs. La formation à l’inclusion et l’embauche en matière de diversité, d’équité et d’inclusion (DE&I) sont de bons débuts et doivent être soutenues de manière significative par la culture du lieu de travail. À partir de là, les entreprises devraient activement encourager et normaliser un dialogue inclusif dans le cadre de la discussion sur l’IA, ainsi que dans l’environnement de travail plus large, nous rendant meilleurs en tant qu’employés et, à leur tour, améliorant les technologies de l’IA.

Du côté du développement, il existe trois axes principaux pour que l’IA puisse mieux convenir aux utilisateurs finaux, quels que soient les facteurs de différenciation : comprendre, agir et transparence.

En termes de compréhension, des vérifications systématiques des biais sont nécessaires pour s’assurer que le modèle fait de son mieux pour offrir un jugement non discriminatoire. L’une des principales sources de biais dans les modèles d’IA est la base de départ des développeurs de données. Si les données de formation sont biaisées, le modèle aura ce biais intégré. Nous mettons l’accent sur l’IA centrée sur les données, ce qui signifie que nous faisons de notre mieux dès le début de la conception du modèle, à savoir la sélection des données de formation appropriées, pour créer des ensembles de données optimaux. pour le développement de modèles. Cependant, tous les ensembles de données ne sont pas créés égaux et les données du monde réel peuvent être faussées de plusieurs façons – nous devons parfois travailler avec des données qui peuvent être biaisées.

Données de représentation

Une technique pour pratiquer une meilleure compréhension est l’évaluation désagrégée – mesurer les performances sur des sous-ensembles de données qui représentent des groupes spécifiques d’utilisateurs. Les modèles sont bons pour tricher à travers des données complexes, et même si les variables telles que la race ou l’orientation sexuelle n’étaient pas explicitement incluses, ils peuvent vous surprendre en découvrant cela et toujours discriminer ces groupes. Une vérification spécifique de cela aidera à faire la lumière sur ce que le modèle fait réellement (et ce qu’il ne fait pas).

En prenant des mesures après avoir obtenu une meilleure compréhension, nous utilisons diverses techniques de débiaisation. Celles-ci incluent l’équilibrage positif des ensembles de données pour représenter les minorités, l’augmentation des données et l’encodage des fonctionnalités sensibles d’une manière spécifique pour réduire leur impact. En d’autres termes, nous effectuons des tests pour déterminer où notre modèle pourrait manquer de données de formation, puis nous augmentons les ensembles de données dans ces domaines afin de nous améliorer continuellement en matière de débiaisation.

Enfin, il est important d’être transparent dans la communication des données et des performances du modèle. En termes simples, si vous trouvez que votre modèle est discriminatoire envers quelqu’un, dites-le et assumez-le.

L’avenir des applications d’IA éthiques

Aujourd’hui, les entreprises franchissent le gouffre dans l’adoption de l’IA. Nous constatons dans la communauté interentreprises que de nombreuses organisations adoptent l’IA pour résoudre des problèmes fréquents et répétitifs et pour tirer parti de l’IA pour obtenir des informations en temps réel sur les ensembles de données existants. Nous expérimentons ces capacités dans une multitude de domaines – dans nos vies personnelles telles que nos recommandations Netflix pour analyser le sentiment de centaines de conversations clients dans le monde des affaires.

Tant qu’il n’y aura pas de réglementation descendante concernant le développement et l’utilisation éthiques de l’IA, il est impossible de faire des prédictions. Nos principes d’éthique en matière d’IA chez Dialpad sont un moyen de nous tenir responsables de la technologie d’IA utilisée dans nos produits et services. De nombreuses autres entreprises technologiques se sont jointes à nous pour promouvoir l’éthique de l’IA en publiant des principes éthiques similaires, et nous saluons ces efforts.

Cependant, sans responsabilité externe (que ce soit par le biais de réglementations gouvernementales ou de normes et certifications de l’industrie), il y aura toujours des acteurs qui, intentionnellement ou par négligence, développeront et utiliseront une IA qui ne se concentre pas sur l’inclusivité.

Pas d’avenir sans IA (éthique)

Les dangers sont réels et pratiques. Comme nous l’avons dit à plusieurs reprises, l’IA imprègne tout ce que nous faisons professionnellement et personnellement. Si vous ne priorisez pas de manière proactive l’inclusivité (parmi les autres principes éthiques), vous permettez intrinsèquement à votre modèle d’être soumis à des préjugés manifestes ou internes. Cela signifie que les utilisateurs de ces modèles d’IA – souvent sans le savoir – digèrent les résultats biaisés, qui ont des conséquences pratiques sur la vie quotidienne.

Il n’y a probablement pas d’avenir sans IA, car elle devient de plus en plus répandue dans notre société. Il a le potentiel d’augmenter considérablement notre productivité, nos choix personnels, nos habitudes et même notre bonheur. Le développement et l’utilisation éthiques de l’IA ne sont pas un sujet controversé, et c’est une responsabilité sociale que nous devons prendre au sérieux – et nous espérons que d’autres le feront aussi.

Le développement et l’utilisation de l’IA par mon organisation sont une sous-section mineure de l’IA dans notre monde. Nous nous sommes engagés à respecter nos principes éthiques et nous espérons que d’autres entreprises technologiques feront de même.

Dan O’Connell est CSO de Pavé numérique

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager contribution d’un article ton propre!

En savoir plus sur DataDecisionMakers