Skip to content

Cvoii

Menu
  • Home
  • Apple
  • Clouding
  • Gear
  • Latest
  • Lifestyle
  • Notebook
Menu

L’argent et le contrôle de l’esprit : Big Tech claque les freins éthiques sur l’IA, Tech News News & Top Stories

Posted on November 12, 2022 by admin

SAN FRANCISCO (REUTERS) – En septembre de l’année dernière, l’unité cloud de Google a envisagé d’utiliser l’intelligence artificielle (IA) pour aider une société financière à décider à qui prêter de l’argent.

Il a rejeté l’idée du client après des semaines de discussions internes, jugeant le projet trop risqué sur le plan éthique car la technologie de l’IA pourrait perpétuer des préjugés comme ceux autour de la race et du sexe.

Depuis le début de l’année dernière, Google a également bloqué de nouvelles fonctionnalités d’IA analysant les émotions, craignant l’insensibilité culturelle, tandis que Microsoft a restreint les logiciels imitant les voix et IBM a rejeté une demande d’un client pour un système avancé de reconnaissance faciale.

Toutes ces technologies ont été freinées par des panels de cadres ou d’autres dirigeants, selon des entretiens avec les chefs de l’éthique de l’IA chez les trois géants technologiques américains.

Rapportés ici pour la première fois, leurs veto et les délibérations qui y ont conduit reflètent une volonté naissante à l’échelle de l’industrie d’équilibrer la poursuite de systèmes d’IA lucratifs avec une plus grande prise en compte de la responsabilité sociale.

“Il existe des opportunités et des inconvénients, et notre travail consiste à maximiser les opportunités et à minimiser les inconvénients”, a déclaré Mme Tracy Pizzo Frey, qui siège à deux comités d’éthique chez Google Cloud en tant que directrice générale de l’IA responsable.

Les jugements peuvent être difficiles.

Microsoft, par exemple, a dû équilibrer les avantages de l’utilisation de sa technologie de mimétisme vocal pour restaurer le discours des personnes altérées par rapport aux risques tels que l’activation des deepfakes politiques, a déclaré Mme Natasha Crampton, directrice de l’IA responsable de la société.

Les militants des droits affirment que les décisions ayant des conséquences potentiellement importantes pour la société ne devraient pas être prises uniquement en interne.

Ils soutiennent que les comités d’éthique ne peuvent pas être véritablement indépendants et que leur transparence publique est limitée par les pressions concurrentielles.

M. Jascha Galaski, chargé de plaidoyer à l’Union des libertés civiles pour l’Europe, considère le contrôle externe comme la voie à suivre, et les autorités américaines et européennes sont en effet en train d’établir des règles pour ce domaine naissant.

Si les comités d’éthique de l’IA des entreprises “deviennent vraiment transparents et indépendants – et tout cela est très utopique – alors cela pourrait être encore mieux que toute autre solution, mais je ne pense pas que ce soit réaliste”, a déclaré M. Galaski.

Les entreprises ont déclaré qu’elles accueilleraient favorablement une réglementation claire sur l’utilisation de l’IA, et que cela était essentiel à la fois pour la confiance des clients et du public, à l’instar des règles de sécurité automobile. Ils ont dit qu’il était également dans leur intérêt financier d’agir de manière responsable.

Ils tiennent cependant à ce que toutes les règles soient suffisamment flexibles pour suivre l’innovation et les nouveaux dilemmes qu’elle crée.

Parmi les considérations complexes à venir, IBM a déclaré à Reuters que son comité d’éthique de l’IA avait commencé à discuter de la manière de contrôler une frontière émergente : les implants et les appareils portables qui relient les ordinateurs aux cerveaux.

De telles neurotechnologies pourraient aider les personnes handicapées à contrôler leurs mouvements, mais soulèvent des inquiétudes telles que la perspective de pirates informatiques manipulant les pensées, a déclaré Christina Montgomery, responsable de la confidentialité chez IBM.

Les entreprises technologiques reconnaissent qu’il y a à peine cinq ans, elles lançaient des services d’IA tels que les chatbots et le marquage de photos avec peu de garanties éthiques, et luttaient contre les abus ou les résultats biaisés avec des mises à jour ultérieures. Mais alors que l’examen politique et public des défaillances de l’IA augmentait, Microsoft en 2017 et Google et IBM en 2018 ont créé des comités d’éthique pour examiner les nouveaux services dès le départ.

Google a déclaré avoir été confronté à son dilemme en matière de prêt d’argent en septembre dernier lorsqu’une société de services financiers a estimé que l’IA pouvait mieux évaluer la solvabilité des personnes que d’autres méthodes.

Le projet semblait bien adapté à Google Cloud, dont l’expertise dans le développement d’outils d’IA qui aident dans des domaines tels que la détection de transactions anormales a attiré des clients comme Deutsche Bank, HSBC et BNY Mellon.

L’unité de Google prévoyait que la notation de crédit basée sur l’IA pourrait devenir un marché de plusieurs milliards de dollars par an et voulait prendre pied.

Cependant, son comité d’éthique composé d’une vingtaine de managers, de spécialistes des sciences sociales et d’ingénieurs qui examinent les accords potentiels a voté à l’unanimité contre le projet en octobre.

Le système d’IA aurait besoin d’apprendre des données et des modèles passés, a conclu le comité, et risquait donc de répéter des pratiques discriminatoires du monde entier contre les personnes de couleur et d’autres groupes marginalisés.

De plus, le comité, connu en interne sous le nom de Lemonaid, a adopté une politique visant à ignorer toutes les transactions de services financiers liées à la solvabilité jusqu’à ce que ces problèmes puissent être résolus.

Lemonaid avait rejeté trois propositions similaires au cours de l’année précédente, notamment d’une société de cartes de crédit et d’un prêteur commercial, et Mme Pizzo Frey et son homologue des ventes avaient hâte d’obtenir une décision plus large sur la question.

Google a également déclaré que son deuxième comité d’éthique Cloud, connu sous le nom de Iced Tea, avait mis cette année sous examen un service lancé en 2015 pour classer les photos de personnes selon quatre expressions : joie, tristesse, colère et surprise.

Cette décision fait suite à une décision rendue l’année dernière par le comité d’éthique de Google, l’Advanced Technology Review Council (ATRC), qui a retenu de nouveaux services liés à la lecture émotionnelle.

L’ATRC – plus d’une douzaine de cadres supérieurs et d’ingénieurs – a déterminé que la déduction d’émotions pouvait être insensible car les signaux faciaux sont associés différemment aux sentiments d’une culture à l’autre, entre autres raisons, a déclaré Mme Jen Gennai, fondatrice et responsable de l’équipe d’innovation responsable de Google.

Iced Tea a bloqué 13 émotions prévues pour l’outil Cloud, dont l’embarras et le contentement, et pourrait bientôt abandonner complètement le service au profit d’un système qui décrirait des mouvements tels que froncer les sourcils et sourire, sans chercher à les interpréter.

Microsoft, quant à lui, a développé un logiciel capable de reproduire la voix de quelqu’un à partir d’un court échantillon, mais le panel des utilisations sensibles de la société a ensuite passé plus de deux ans à débattre de l’éthique entourant son utilisation et a consulté le président de la société, Brad Smith, a déclaré Mme Crampton, responsable de l’IA.

Elle a déclaré que le panel – des spécialistes dans des domaines tels que les droits de l’homme, la science des données et l’ingénierie – a finalement donné le feu vert à la sortie complète de Custom Neural Voice en février de cette année. Mais il a imposé des restrictions à son utilisation, notamment que le consentement des sujets doit être vérifié.

Le conseil d’administration de l’IA d’IBM, composé d’environ 20 chefs de département, a lutté avec son propre dilemme lorsque, au début de la pandémie de Covid-19, il a examiné une demande d’un client pour personnaliser la technologie de reconnaissance faciale pour détecter les fièvres et les couvre-visages.

Mme Montgomery a déclaré que le conseil d’administration, qu’elle copréside, a décliné l’invitation, concluant que des vérifications manuelles suffiraient avec moins d’intrusion dans la vie privée, car les photos ne seraient conservées pour aucune base de données d’IA. Six mois plus tard, IBM a annoncé qu’il mettait fin à son service de reconnaissance faciale.

Afin de protéger la vie privée et d’autres libertés, les législateurs de l’Union européenne et des États-Unis poursuivent des contrôles approfondis sur les systèmes d’IA.

La loi sur l’intelligence artificielle de l’UE, qui devrait être adoptée l’année prochaine, interdirait la reconnaissance faciale en temps réel dans les espaces publics et obligerait les entreprises technologiques à examiner les applications à haut risque, telles que celles utilisées pour l’embauche, la notation du crédit et l’application de la loi.

Le membre du Congrès américain Bill Foster, qui a tenu des auditions sur la manière dont les algorithmes font progresser la discrimination dans les services financiers et le logement, a déclaré que de nouvelles lois régissant l’IA garantiraient un champ égal pour les fournisseurs.

“Lorsque vous demandez à une entreprise de réduire ses bénéfices pour atteindre des objectifs sociétaux, elle dit : ‘Qu’en est-il de nos actionnaires et de nos concurrents ?’ C’est pourquoi vous avez besoin d’une réglementation sophistiquée”, a-t-il déclaré.

“Il peut y avoir des domaines si sensibles que vous verrez des entreprises technologiques rester délibérément à l’écart jusqu’à ce qu’il y ait des règles de circulation claires.”

En effet, certaines avancées de l’IA peuvent simplement être suspendues jusqu’à ce que les entreprises puissent contrer les risques éthiques sans consacrer d’énormes ressources d’ingénierie.

Après que Google Cloud a rejeté la demande d’IA financière personnalisée en octobre dernier, le comité de Lemonaid a déclaré à l’équipe commerciale que l’unité avait pour objectif de commencer un jour à développer des applications liées au crédit.

Mais d’abord, la recherche sur la lutte contre les préjugés injustes doit rattraper les ambitions de Google Cloud d’accroître l’inclusion financière grâce à la technologie “hautement sensible”, a-t-il déclaré. “Jusqu’à ce moment-là, nous ne sommes pas en mesure de déployer des solutions.”

Nous avons rencontré quelques problèmes avec les connexions des abonnés et nous nous excusons pour la gêne occasionnée. Jusqu’à ce que nous résolvions les problèmes, les abonnés n’ont pas besoin de se connecter pour accéder aux articles de ST Digital. Mais une connexion est toujours requise pour nos PDF.

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Recent Posts

  • Comment mon lieu de travail changera-t-il après la fin de la quarantaine COVID-19 ?
  • Windows 10 obtient enfin une nouvelle expérience de presse-papiers
  • Comment ajouter des liens à vos histoires Instagram
  • Pocketnow Daily : Samsung Galaxy Z Fold 3 : NOUVEL appareil photo fou ?! (vidéo)
  • Deux autres centres de marché et de restauration fermés en raison de la transmission de Covid-19 parmi les étals et les travailleurs, Singapore News & Top Stories

Categories

  • Apple
  • Clouding
  • Gear
  • Latest
  • Lifestyle
  • Notebook
© 2023 Cvoii | Powered by Superbs Personal Blog theme