Interview : faut-il avoir peur de l’intelligence artificielle ?

 

Aurélie Jean
L’intelligence artificielle va-t-elle définitivement supplanter l’humain, se demande Aurélie Jean dans sa dernière chronique au Point ? En quoi les algorithmes d’aujourd’hui sont-ils différents des logiciels de l’informatique du siècle dernier ?
L’intelligence artificielle, c’est faire résoudre des problèmes par des ordinateurs. Pour cela, il faut d’abord créer un modèle sous forme mathématique. C’est ce qu’on appelle un algorithme. J’ai beau être une «  matheuse  », la calculatrice ira toujours plus vite que les opérations que je peux faire à la main. Je crée donc des algorithmes pour aller plus vite, être plus efficace. La grande différence entre Deep Blue, l’ordinateur d’IBM qui avait battu Garry Kasparov aux échecs et AlphaGo, la nouvelle championne du jeu de go conçue par Google, c’est que la machine a atteint son niveau en jouant d’abord contre elle-même avant de battre un humain. On fixe les règles de base au départ, et l’intelligence artificielle est ensuite capable «  d’apprendre  » toute seule en jouant une multitude de combinaisons contre elle-même. Cette notion de deep learning est déjà ancienne. On distingue deux niveaux d’intelligence artificielle  : la faible et la forte. Dans les modèles les plus évolués, la machine serait capable d’apprendre sans intervention humaine. Elle aurait en quelque sorte «  conscience  » de son existence. On cherche même à la doter d’une intelligence émotive. En réalité, aucune machine n’éprouvera jamais de sentiments, selon moi. Mais elle peut en exprimer, si elle a été programmée pour le faire.
Construire une machine capable de battre des champions de go ou d’échec, c’est une performance qui peut frapper les esprits, mais qui ne porte guère à conséquences. Que penser en revanche d’un programme qui remplacerait les pilotes dans un avion, ou qui prendrait le volant à notre place à bord des voitures autonomes annoncées dans un futur proche  ?
Techniquement, on sait déjà faire beaucoup de choses. On a des «  pilotes automatiques  » à bord des avions ou des métros. Mais l’exemple de la voiture autonome est intéressant, parce que même si elle marche déjà à 90%, ce sont les 10% qui restent qui posent problème. On n’a pas le droit à l’erreur. Je ne suis pas une spécialiste des transports automatiques, mais il me semble que le challenge n’est pas seulement technique. On voit bien que la question est aussi d’ordre éthique. L’IA qui pilote une voiture autonome doit-elle privilégier la sécurité des personnes à bord, ou le piéton qui traverse devant elle  ? La réponse ne peut pas venir uniquement des programmeurs. Le public doit lui aussi pouvoir donner son avis. Je plaide également pour que les scientifiques se rapprochent des parlementaires afin de co-construire la réglementation de demain. Il ne faudrait pas qu’une loi freine l’innovation ou protège faussement la population, voire qui contient des vides technologiques.
On met souvent les erreurs humaines en cause dans les accidents, mais un ordinateur aussi, ça peut «  planter  »…
Quand il y a un bug, il y a deux raisons possibles  : soit c’est que le programme a été mal codé, soit c’est qu’il rencontre un cas non pris en compte au départ. C’est ce qu’on appelle un «  biais  » de programmation. Je prends souvent l’exemple des premiers logiciels de reconnaissance faciale qui n’étaient pas capables de fonctionner correctement avec des personnes noires, simplement parce que les programmateurs étaient blancs. Dans les deux cas, il s’agit de failles humaines. Un logiciel ne peut pas être «  raciste  », ou sexiste comme cela a été dénoncé récemment dans le cas d’un programme d’IA chargé de sélectionner les CV chez Amazon. Je le dis d’autant plus ouvertement alors que je milite personnellement pour davantage d’égalité des sexes dans le monde professionnel. Ce n’est pas le programme qu’il faut incriminer. Il faut au contraire s’attacher à comprendre comment il a été écrit pour pouvoir le corriger, l’améliorer. Cela étant dit, il faut bien reconnaître que si tout le monde vise le «  zéro bug  », il y en aura toujours. Je ne vois pas comment les éviter, mais on peut faire en sorte de les repérer avant qu’ils ne fassent des dégâts. La plupart des outils informatiques que vous utilisez comportent des bugs, mais ils sont supprimés au fur et à mesures des nouvelles versions mises à jour. Quand je travaillais chez Bloomberg, on commençait à tester les nouveaux programmes parmi les 5.000 collaborateurs en interne avant des les diffuser à l’extérieur pour minimiser les risques. L’important, c’est de réagir vite.
La vitesse, cela peut aussi faire peur en cas de crash. Le grand public a pu être choqué d’apprendre que des machines réalisaient des transactions boursières à la place des traders lors de la crise de 2008…
C’est vrai que le trading haute-fréquence est automatisé. Mais cela peut-être intéressant sur des marchés qui fluctuent trop, en permettant au contraire de ré-équilibrer les échanges. Je pense même que les algorithmes peuvent prévenir les crises, même si cela n’a jamais été démontré. On peut désormais faire des prédictions grâce à l’IA, mais à la fin c’est l’humain qui décide. Tant que l’IA ne sert pas à faire de la spéculation financière, son utilisation dans le milieu bancaire et boursier ne me choque pas.
La vitesse et la puissance de calcul ne sont-elles pas en train de marquer le pas face à la montée en puissance de la data, véritable «  carburant  » de l’économie numérique  ?
Effectivement, nous générons toujours plus de données que ce que nous sommes capables d’analyser. C’était l’une de mes grandes frustrations quand j’étais en thèse  : je générais davantage de data que ce je pouvais traiter. Même si on accédait demain à des puissances de calcul encore plus puissantes que celles dont nous disposons, avec par exemple des «  ordinateurs quantiques  », on doit faire face à une croissance exponentielle des facteurs à traiter. La moralité que j’en tire, c’est qu’il faut toujours garder un œil critique sur ce qu’on fait.
La société aussi peut parfois être critique, voire effrayée par un avenir toujours plus «  connecté  » qui évoluerait vers une société de surveillance généralisée, façon cauchemar d’Orwell
Oui, les gens qui expriment ces craintes ont raison. Comme toute innovation, l’IA peut conduire à de bonnes ou de mauvaises utilisations. C’est comme le nucléaire, qui a conduit à la bombe atomique mais aussi à développer des thérapies contre le cancer. Il faut se garder de tout rejet épidermique. Développer l’esprit critique est une bonne chose. Chaque innovation peut provoquer à la fois la peur et la fascination. Mais je sens monter une méfiance envers la science qui m’attriste. Un scientifique digne de ce nom n’a pas à mon sens à être technophile ou technolâtre, il doit juste être techno-réaliste. Je constate qu’il est souvent plus facile de vendre des peurs que des rêves. Comme je me refuse à le faire, mes réponses sont souvent décevantes pour le grand public qui s’attend à une présentation dramatique.

Macron, Le Point sans la rose

macron-futurapolis

On a beaucoup parlé de la « voiture autonome » à Futurapolis, le forum de l’innovation organisé depuis un quinquennat déjà à Toulouse par l’hebdomadaire Le Point. Un mini-bus électrique sans conducteur était même en démonstration durant ces deux journées, allant et venant sans relâche devant le Quai des Savoirs, le nouveau temple laïque de la culture scientifique et technique de la ville rose. Mais c’est un « OVNI » politique qui fut la véritable attraction de cette nouvelle édition. Alors que Le Point avait inauguré Futurapolis en invitant tous les candidats à l’élection présidentielle de 2012 à la Halle aux Grains, un seul politique a eu la possibilité de disserter sur l’avenir et le progrès cette année. « Nous vivons une révolution aussi importante que lors de l’invention de l’imprimerie ou de la découverte de l’Amérique », assure Emmanuel Macron dans un amphi de l’ancienne faculté de médecine bourré à craquer.

Interdit de Futurapolis par Manuel Valls

L’ancien ministre de l’Economie n’est officiellement pas (encore ?) candidat, mais il a eu droit à une nuée de photographes et de caméras pour immortaliser son court trajet à bord de la navette EasyMile, ou lorsqu’il a testé l’un des nombreux casques de réalité virtuelle en démonstration dans le grand hall du Quai des Savoirs. Etienne Gernelle, qui a succédé à Franz-Olivier Giesbert à la tête du Point, se défend pourtant de tout favoritisme. « Nous l’avions invité l’an dernier en tant que ministre, mais le secrétariat général de Matignon s’était opposé à sa venue » explique le directeur du Point. Selon le journaliste, les juristes de Manuel Valls redoutaient en 2015 que la visite de Macron à Toulouse ne soit imputée aux comptes de campagne de Carole Delga, ancienne ministre alors en campagne pour la présidence de région. Désormais élue, la nouvelle patronne de l’Occitanie n’a pas souhaité renouveler le partenariat financier de la région avec Futurapolis. C’est donc le maire socialiste dissident de Montpellier qui l’a remplacé au pied-levé. Proche de Manuel Valls, Philippe Saurel ne cache pas qu’il n’est pas spécialement fan de Macron. Il n’hésite pas à répéter à qui veut l’entendre qu’à tout prendre, il préférerait encore apporter son suffrage à Mélenchon.

Pierre Cohen n’est pas davantage disposé à prendre le bus Macron « en marche ». Cela n’a pas empêché l’ancien maire (PS) de Toulouse, initiateur du Quai des Savoirs, d’assister au « show » de l’ex-ministre de Berçy. Au premier rang, à gauche, et en silence. Dans l’assistance, personne n’a eu le mauvais goût d’accuser Emmanuel Macron d’avoir « privatisé  » l’aéroport de Toulouse-Blagnac. Futurapolis n’est pas franchement le lieu des petites disputes politiques. Le non-candidat a ainsi pu dérouler sans réelle opposition sa vision d’un « changement » qu’il présente comme inéluctable. « Si le débat, c’est la semaine de 35 ou 39 heures ou la retraite à 60 ou 62 ans, on est foutu », assène l’ancien banquier d’affaire. Il ne se réclame ni de la droite, ni de la gauche, mais entend incarner « le progrès » face aux « conservatismes ». Pile-poil la ligne éditoriale de l’hebdomadaire. Macron, c’est Le Point sans la rose !

Edgar Morin, malade non-imaginaire

La seule voix qui aurait pu apporter la contradiction à la très lisse rhétorique d’Emmanuel Macron a déclaré forfait à la dernière minute. Edgar Morin, 94 ans, était l’autre invité-vedette de Futurapolis. Le penseur, malade, a finalement renoncé à venir à Toulouse pour clore la première journée. Mais il a profité d’une interview confiée à la Tribune pour envoyer un coup de griffe à « la tyrannie du profit » incarnée à ses yeux par les économistes en général, et à l’ex-ministre en particulier. « Je peux vous dire que la maladie d’Edgar n’était pas diplomatique », assure Etienne Gernelle. Le directeur du Point confie au passage son souhait pour 2017 : inviter le nouveau président de la République, « quel qu’il soit », à Futurapolis.