L'apprentissage automatique Google AI Expert n'est pas meilleur que l'alchimie

  • Paul Sparks
  • 0
  • 4874
  • 6

Un éminent chercheur en apprentissage automatique et en intelligence artificielle soutient que son domaine s'est éloigné des limites de la science et de l'ingénierie pour se tourner vers «l'alchimie». Et il offre un chemin de retour.

Ali Rahimi, qui travaille sur l'IA pour Google, a déclaré qu'il pensait que son domaine avait fait des progrès incroyables, mais a suggéré qu'il y avait quelque chose de pourri dans la façon dont il était développé. Dans l'apprentissage automatique, un ordinateur «apprend» via un processus d'essais et d'erreurs. Le problème dans une conférence présentée à une A.I. conférence est que les chercheurs qui travaillent sur le terrain - quand un ordinateur "apprend" en raison d'un processus d'essais et d'erreurs - non seulement ne comprennent pas exactement comment leurs algorithmes apprennent, mais ils ne comprennent pas comment les techniques qu'ils utilisent pour que ces algorithmes fonctionnent non plus, a suggéré Rahimi dans une conférence présentée lors d'une conférence sur l'IA couverte récemment par Matthew Hutson pour le magazine Science.

En 2017, Rahimi avait sonné l'alarme sur le côté mystique de l'intelligence artificielle: «Nous produisons des résultats incroyablement impressionnants», écrivait-il dans un blog. "Les voitures autonomes semblent être au coin de la rue; l'intelligence artificielle marque les visages sur les photos, transcrit les messages vocaux, traduit des documents et nous alimente en publicités. Les entreprises d'un milliard de dollars reposent sur l'apprentissage automatique. À bien des égards, nous sommes dans une meilleure situation. que nous ne l'étions il y a 10 ans. D'une certaine manière, nous sommes dans une situation pire. " [Machines super-intelligentes: 7 futurs robotiques]

Rahimi, comme l'a rapporté Hutson, a montré que de nombreux algorithmes d'apprentissage automatique contiennent des fonctionnalités intégrées qui sont essentiellement inutiles, et que de nombreux algorithmes fonctionnent mieux lorsque ces fonctionnalités sont supprimées. D'autres algorithmes sont fondamentalement cassés et ne fonctionnent que grâce à une épaisse couche de correctifs ad hoc empilés au-dessus du programme d'origine.

C'est, au moins en partie, le résultat d'un domaine qui s'est habitué à une sorte de méthodologie aléatoire, par essais et erreurs, a fait valoir Rahimi dans ce blog. Dans le cadre de ce processus, les chercheurs ne comprennent pas du tout pourquoi une tentative de résolution d'un problème a fonctionné et une autre a échoué. Les gens mettent en œuvre et partagent des techniques qu'ils ne comprennent pas à distance.

Voici la peinture complète. (Crédit d'image: domaine public)

Les gens qui suivent l'IA pourraient se rappeler le problème de la «boîte noire», a noté Hutson dans son article - la tendance des programmes d'IA à résoudre les problèmes d'une manière que leurs créateurs humains ne comprennent pas. Mais le problème actuel est différent: non seulement les chercheurs ne comprennent pas les techniques de résolution de problèmes de leurs programmes d'IA, a déclaré Rahimi, mais ils ne comprennent pas non plus les techniques qu'ils ont utilisées pour construire ces programmes en premier lieu. En d'autres termes, le domaine ressemble plus à l'alchimie qu'à un système de recherche moderne, a-t-il déclaré..

"Il y a une place pour l'alchimie. L'alchimie a fonctionné", a écrit Rahimi.

"Les alchimistes ont inventé la métallurgie, des moyens de fabriquer des médicaments, des techniques de teinture pour les textiles et nos procédés modernes de fabrication du verre. Là encore, les alchimistes pensaient également qu'ils pouvaient transformer les métaux de base en or et que les sangsues étaient un excellent moyen de guérir les maladies. . "

Dans son discours plus récent (et son article d'accompagnement) à la Conférence internationale sur les représentations d'apprentissage à Vancouver, au Canada, Rahimi et plusieurs collègues ont proposé un certain nombre de méthodes et de protocoles qui pourraient faire passer l'apprentissage automatique au-delà du monde de l'alchimie. Parmi eux: évaluer les nouveaux algorithmes en termes de leurs éléments constitutifs, en supprimer des parties une à la fois et tester si l'ensemble des programmes fonctionnent toujours, et effectuer des "tests de cohérence" de base sur les résultats que les algorithmes produisent.

C'est tout parce que l'IA, a fait valoir Rahimi dans son blog de 2017, est devenue trop importante dans la société pour être développée de manière aussi bâclée..

"Si vous créez des services de partage de photos, l'alchimie est bonne", a-t-il écrit. "Mais nous construisons maintenant des systèmes qui régissent les soins de santé et notre participation au débat civil. J'aimerais vivre dans un monde dont les systèmes sont construits sur des connaissances rigoureuses, fiables et vérifiables et non sur l'alchimie."




Personne n'a encore commenté ce post.

Les articles les plus intéressants sur les secrets et les découvertes. Beaucoup utiles sur tout
Articles sur la science, la technologie, la santé, la culture. Expliquer des milliers de sujets pour savoir comment tout fonctionne