L’application de capacités d’apprentissage non naturelles peut reconnaître les visages, traduire entre le mandarin et le swahili et battre les meilleurs joueurs du monde à ce genre de jeux comme Go, échecs et poker. Ce qu’il ne peut généralement pas faire, c’est le clarifier par lui-même. L’IA est un logiciel informatique qui peut étudier à partir de données ou de rencontres pour aider à faire des prévisions. Un développeur de PC spécifie les informations dont le programme a besoin pour trouver et publie des articles une paire d’instructions, connues sous le nom de critères d’algorithme, sur la façon dont le logiciel doit faire cela, incentive mais n’influence pas seulement ce qu’il doit comprendre. C’est exactement ce qui fournit à l’IA une grande partie de son énergie: elle pourrait apprendre des liens dans les données qui seraient plus complexes ou nuancés que ne le ferait un humain habituel. Mais cette complexité signifie que le but que le programme atteint à tout résumé distinct est souvent largement opaque, même pour leurs propres concepteurs. Pour les fabricants de logiciels qui tentent de proposer des solutions d’IA, cette qualité insuffisante pourrait être préjudiciable à l’entreprise. Il est difficile pour l’humanité de s’appuyer sur un processus qu’ils ne peuvent pas pleinement comprendre – et sans y croire, les entreprises ne rapporteront pas beaucoup d’argent pour le logiciel IA. Cela est également vrai dans des domaines tels que les services médicaux, les finances et la police, où les implications d’une horrible suggestion seront plus considérables que, disons, ce point que Netflix pensait que vous pourriez éventuellement prendre plaisir à regarder The Hangover Portion III. Le contrôle consiste également à faire voyager les entreprises pour demander une IA plus explicable. Aux États-Unis, les lois sur les polices d’assurance exigent que les organisations soient en mesure de clarifier pourquoi elles ont refusé une protection individuelle ou leur ont facturé une prime plus élevée par rapport à ce qu’elles ont fait à leurs voisins. Dans les pays européens, le règlement général sur la sécurité des détails, qui a abouti en mai, offre aux habitants de l’UE un «droit à un examen humain» associé à une décision algorithmique les influençant. Dans le cas où l’institution bancaire rejette votre application de prêt, il ne peut pas simplement vous expliquer que votre ordinateur a déclaré qu’aucun employé d’une institution financière ne devait être en mesure d’évaluer la méthode appliquée par l’appareil ou d’effectuer un examen séparé. David Kenny, qui jusqu’à la dernière de ces quatre semaines était Senior v. De Global Company Devices Corp. p. pour les solutions intellectuelles, déclare que lorsque IBM a interrogé 5000 entreprises sur l’utilisation de l’IA, 82% ont indiqué qu’elles souhaitaient y parvenir, mais les deux tiers des personnes interrogées ont déclaré que ces personnes hésitaient à continuer, avec trop peu de position explicative comme étant le plus grand obstacle. à l’approbation. Au total, 60% des managers signalent maintenant que les fonctions intérieures de l’IA sont trop énigmatiques, contre 29% en 2016. «Ils disent:« Si je vais faire un choix important proche de la souscription au hasard ou à la sécurité de base des repas, j’aimerais beaucoup plus d’explication », Affirme Kenny, qui est désormais le principal représentant de la direction de Nielsen Holdings Plc. Répondant, les distributeurs de logiciels et les intégrateurs de solutions informatiques ont commencé par vanter une capacité remarquable à présenter aux consommateurs des informations sur la façon dont les plans d’IA pensaient. Lors de la convention sur les méthodes de traitement des informations neuronales à Montréal au début du mois de décembre, le stand d’IBM a annoncé son programme de logiciel d’intelligence synthétique basé sur le cloud comme fournissant une «explicabilité». Le logiciel informatique d’IBM peut informer un client des trois à cinq variables d’une formule d’algorithme pondérée le plus intensément pour faire un choix. Il pourrait surveiller la lignée de données, informant les clients exactement d’où provenaient les bits d’information utilisés par l’algorithme. Ce qui peut être nécessaire pour trouver des biais, affirme Kenny. IBM propose désormais des ressources qui aideront les organisations à supprimer les zones d’informations qui pourraient être discriminatoires, y compris la concurrence, ainsi que d’autres éléments d’information qui pourraient être étroitement liés à ces aspects, y compris les réglementations postales. Quantum Black coloured, une organisation de contact qui aide les entreprises à concevoir des solutions pour analyser les informations, a promu sa concentration sur le développement de l’IA explicable avec la réunion, il y avait de nombreux rapports d’école à leur sujet. Accenture Plc a commencé à commercialiser des «instruments d’équité», qui peuvent aider les organisations à identifier et à corriger les préjugés au sein de leurs règles d’intelligence artificielle, tout comme ses concurrents Deloitte LLC et KPMG LLC. Les moteurs de recherche, une partie d’Alphabet Inc., ont commencé à donner à ceux qui utilisent ses techniques d’apprentissage de l’équipement pour mieux saisir pleinement leurs opérations de choix. En juin, Microsoft Corp a acheté Bonsai, une start-up Cal qui avait encouragé la création d’une IA explicable. Kyndi, une start-up de l’IA de San Mateo, en Californie, a même déposé la marque «Explainable AI» pour vous aider à commercialiser son logiciel de compréhension des machines.