L’imposture de l’intelligence artificielle.

L’intelligence artificielle est un sujet passionnant pour nombre de mathématiciens et autres informaticiens, mais quand le sujet est galvaudé il devient un fantasme qui désinforme le public !

Concernant les nouveaux outils informatiques utilisés en médecine, les mots « intelligence artificielle » fleurissent sur la toile, en  y  associant de magnifiques images  de cerveaux plus ou moins relookés*, et de schémas de « neurones  artificiels »*, qui  laisse penser que ces outils remplacent notre intelligence.

La réalité est bien loin de ressembler à cela.

Il n’existe actuellement aucun système d’intelligence artificielle ressemblant de près ou de loin au fonctionnement de notre cerveau.

Ainsi s’il fallait réécrire notre sujet de blog du 6 octobre 2016, (que je vous invite à relire), intitulé

« L’intelligence artificielle selon Watson », il faudrait pour être plus rigoureux changer le titre par exemple par  » l’informatique cognitive de Watson d’ IBM, au service de l’homme »

En effet la société IBM que nous avons rencontré il y a quelques semaines sur Nice,  est une entreprise en pointe dans ce domaine de l’informatique cognitive*. Elle ne prétend à aucun moment substituer le cerveau de ses clients par une quelconque forme d’intelligence artificielle, au contraire c’est l’intelligence des hommes qui va se nourrir des derniers développements de l’informatique, et faciliter considérablement le traitement de tâches quotidiennes qui se posent aux acteurs du monde économique en général,  et au monde de la santé en particulier.

L’ambition de ces nouveaux outils est notamment le traitement de quantités immenses de data accumulées par les activités de l’homme, ou utile à la médecine (le génome…).

« L’intelligence artificielle »  telle quelle est fantasmée parfois sur la toile serait constituée de systèmes experts imitant l’homme, en possédant toutes ses fonctions cognitives*, avec la possibilité d’un apprentissage, d’une organisation de la mémoire et d’un raisonnement critique. Le système ayant une bonne compréhension du langage, une perception visuelle et auditive avec in fine la possibilité de penser. Cette machine ainsi éduquée dans ce qu’on appelle le concept d’intelligence artificielle « forte » devrait pouvoir éprouver une impression d’une réelle conscience de soi.

Cela n’existe pas et n’est pas envisagé avant des décennies, ou un siècle !

Toutefois certains spécialistes reviennent à la charge promettant que cela pourrait devenir  rapidement possible avec l’utilisation des ordinateurs quantiques. En effet peut-on lire,  » des algorithmes quantiques pourraient être capables de mener à bien des calculs hors d’atteinte pour les calculateurs conventionnels ».

Mais à la connaissance d’innovationesante,  ils n’existent pas d’ordinateurs quantiques en fonctionnement…

Le projet de  D- wave systems est très controversé, et nous ne sommes  pas dans les secrets de l’association entre Google, la NASA et D- wave systems, concernant l’expérimentation « possible » d’un ordinateur « peut être » quantique !

Je vous invite alors à relire notre billet de blog: « Les ratés de la santé connectée, ou le patient pris en otage« ,  montrant l’enfumage » relayé par le net de la part de certaines sociétés,  confondant  leurs rêves  avec les possibilités techniques du moment. Comme pour les lunettes et les lentilles connectées de Google, nous retrouvons  le même scénario de surenchère médiatique concernant l’informatique quantique promesse de la véritable « intelligence artificielle »!

Il est possible de lire par exemple: « L’ordinateur quantique de la NASA et de Google double ses capacités … »passant de 512 qubits à plus 1000 »

Or  de nombreux spécialistes doutent même de l’existence d’un ordinateur réellement « quantique » et fonctionnel ! Affaire à suivre…

Mais pour d’autres spécialistes l’usage des réseaux de neurones artificiels pourrait permettre également d’atteindre ce but.

Concernant cette représentation de systèmes informatiques (voir schémas ci-dessous), innovationesante.fr n’a pas vraiment trouvé dans la littérature ce qui pouvait justifier scientifiquement de les comparer à de véritables neurones humains, c’est donc dans un souci de simplification, comme l’est également l’utilisation  de l’image du cerveau relooké, que ces schémas sont repris à l’infini.

ArtificialNeuronModel_francais

Neurones artificiels

intelligence-artificielle

Représentation du cerveau : intelligence artificielle.

 

Mais ces procédés anthropomorphiques égarent voir manipulent le lecteur béotien.  Elles les invitent à confondre intelligence artificielle (qui n’existe donc pas pour le moment dans le sens littéral),  avec informatique cognitive ou plus simplement possibilités de calculs, aussi prodigieux soient-ils.  Cela nous parait très néfaste. L’impression est donnée que le cerveau humain délègue ses prérogatives aux machines. Cela pourrait entraîner (très justement) des réactions d’hostilités (de la part de ceux qui compte bien rester maître de leurs décisions) envers ces outils que nous aurions pourtant intérêt à intégrer dans notre quotidien en les jugeant pour ce qu’ils sont vraiment. Cette imagerie est donc contre-productive.

La réalité d’aujourd’hui est l’existence d’un certain nombre de systèmes utilisant des dispositifs cognitifs imitant partiellement des comportements humains, et pouvant donner l’impression d’être intelligents, mais ils ne le sont pas.

Il s’agit par exemple:

– de système de reconnaissance d’une forme visuelle, de la parole,

– de système lié à la motivation, à la coordination motrice, et au langage.

Cela est déjà remarquable et spectaculaire.

Ces algorithmes peuvent être intégrés dans des systèmes experts permettant des applications précises.

Ainsi pour le moment nous sommes plus proches de ce que certains appellent » l’intelligence artificielle faible »: cherchant à construire des systèmes plus ou moins autonomes, capable de résoudre des  problèmes précis.

Ainsi un système cognitif artificiel peut intégrer des compétences de :

  • traduction
  • traitement  du langage naturel
  • raisonnement (système expert)
  • apprentissage
  • reconnaissance de forme (visage, vision générale…),  intégration d’informations
  • émotion artificielle

Ces systèmes pourront alors intervenir dans les fonctions suivantes :

  • aide au diagnostic
  • aide à la décision
  • résolution de problèmes complexes
  • assistance par des machines dans les tâches dangereuses
  • automatisation des tâches.

Ces systèmes experts peuvent être utilisés dans de nombreux domaines :

  • la banque, système expert d’évaluation de risque lié à l’octroi d’un crédit
  • la finance, le système va gérer entièrement un fond…
  • le domaine militaire, drones, automatisation de l’armement militaire, systèmes de commandement, aide à la décision.
  • la médecine, systèmes d’expert d’aide au diagnostic…

Mais certain commentaires peuvent être tendancieux.

Par exemple l’ordinateur Deep Blue d’IBM, qui a battu Garry Kasparov en 1997,  a été présenté pour des raisons marketing, comme un système plus intelligent que le joueur d’échec. Mais Deep Blue était un  calculateur sans aucune conscience du jeu lui-même. D’ailleurs il fut ensuite reconverti en machine classique, utilisée pour l’exploration de données.

De même les victoires du logiciel AlphaGo de DeepMind, filiale de Google, en  octobre 2015 et en mars 2016, devant respectivement le triple Champion d’Europe de jeu de Go et le Champion du monde de jeu de Go,  sont les victoires d’un calculateur artificiel dont les possibilités de calcul sont supérieures à un cerveau humain, cela ne fait pas de la machine un être intelligent.

Le terme d’intelligence artificielle ne devrait donc être réservé qu’à des sujets de recherche, de prospective ou d’anticipation…

Les apports des nouvelles technologies de l’information et de la communication sont déjà suffisamment clivant pour le public, il ne faut pas en rajouter une couche, en effrayant les utilisateurs potentiels.

Je pense aux médecins chercheurs travaillant par exemple dans le domaine de la cancérologie, des maladies rares, de la médecine personnalisée liée au génome par exemple. Ils ne doivent pas avoir l’impression qu’un algorithme aussi sophistiqué soit-il, pense à leur place, car cela n’est pas vrai.

L’algorithme bien utilisé et maîtrisé, aide le médecin à donner du sens à la grande quantité de data qu’il lui est nécessaire de prendre en compte pour parvenir à un diagnostic ou à une décision thérapeutique. Exemple du Medecin memorial Sloan Kettering Cancer Center aux U.S. qui utilise quotidiennement l’informatique cognitive pour traiter des dossiers et proposer aux médecins des combinaisons médicamenteuses (voir le billet « l’intelligence artificielle selon Watson »).

En argumentant cette utilisation trop facile et souvent erronée des termes » intelligence artificielle », ce billet veut mettre en valeur l’usage quotidien et en pleine expansion de l’informatique cognitive au service de l’intelligence de l’homme.

 

 

*Informatique cognitive:

C’est l’informatique qui donne du sens aux données

C’est la 3ème ère de l’informatique après la tabulation et la programmation.

Elle ne donne pas des réponses absolues à un problème mais la réponse la plus acceptable sous la forme d’une probabilité.

* Le système cognitif:

Comprend le langage humain

Génère des hypothèses de façon statistique

S’adapte et apprend en échangeant avec l’interlocuteur

Il n’est donc qu’un système au service de celui qui l’interroge, ce dernier parvenant in fine à traiter plus rapidement son problème.

* La cognition :

Est l’ensemble des processus mentaux qui se rapportent à  la fonction de connaissance: mémoire, langage, raisonnement, apprentissage, intelligence, résolution de problème, prise de décision, perception, attention.

 

 

 

 

5 commentaires Ajoutez les votres
  1. Très bel article, bravo à ses auteurs et tout particulièrement à Nicolas que je salue ! 😉

    En tant qu’ingénieur et fondateur d’une startup dont la technologie est basée sur de l’IA, je me permet d’ajouter à cet article quelques considérations, volontairement très vulgarisées.

    L’intelligence artificielle dans ses applications les plus récentes n’est encore effectivement qu’une très pale imitation du fonctionnement du cerveau humain. On peut noter toutefois qu’elle a fait un véritable bon en avant ces toutes dernières années avec l’accélération de solutions en IA basées sur des algorithmes de Deep Learning.

    Jusqu’à présent, en matière d’IA, on se limitait principalement à essayer de modéliser des raisonnements humains. Cela avait ses limites puisque qu’il n’est pas toujours possible à un expert ou docteur en IA, face à un problème complexe ou flou, d’identifier les critères et les relations qui déterminent un raisonnement intelligent.

    Aujourd’hui, le Deep Learning permet d’avoir une toute autre approche puisqu’il n’est plus nécessaire de comprendre le raisonnement pour le modéliser, il suffit de fournir des exemples à l’algorithme pour qu’il puisse créer une sorte de boite noire, ou réseau de neurones, capable de reproduire avec succès le raisonnement. C’est beaucoup plus simple et peut s’appliquer à une infinité de problématiques pour lesquels on possèdent de nombreuses données.

    Un cas typique d’utilisation du Deep Learning est la traduction de langues qui fait des progrès considérables et pour lesquels il est facile de fournir des exemples de traductions sans avoir à modéliser toute la complexité d’une langue.
    On peut aussi imaginer une intelligence capable d’offrir du conseil: on se demande bien pourquoi, par exemple, Amazon, a lancé récemment un service « gratuit » de conseil à l’habillement où de « vrai » stylistes (donc couteux !) répondent à des requêtes d’internautes. Ne serait ce pas pour emmagasiner des exemples et par la suite automatiser le service ?

    Pour rester sur la thématique de ce blog, il est fort probable que le diagnostic et les prescriptions de médecins vont, dans un avenir proche (quelques années), pouvoir faire l’objet de traitements automatisés par du Deep Learning, avec non seulement une instantanéité mais aussi une rigueur et une précision supérieure au spécialiste. Des plateformes de mise en relation entre médecin et patients dont déjà leur apparition et pourrons vraisemblablement, une fois un nombre suffisant de consultations emmagasinés, pourront se passer des médecins…
    J’en profite au passage pour féliciter la startup sophipolitaine Therapixel, qui vient de remporter le Digital Mammography Dream Challenge, et mis au point un algorithme de Deep Learning capable de déceler les traces d’un cancer du sein à partir d’images de scanner.
    Sans faire d’amalgame entre un médecin et un chauffeur de taxi, on sait déjà qu’Uber finira dans les prochaines années par se passer de conducteurs pour offrir son service à l’aide de voitures intelligentes et autonomes.

    Je ne m’engagerai pas dans de larges considérations sociétales sur les conséquences du développement de l’intelligence artificielle, mais il y a fort à parier que, si l’IA est encore loin de remplacer un cerveau humain, nombre de métiers vont être très vites affectés par ces technologies. Il ne s’agira plus seulement de métiers à faible qualifications mais désormais aussi de métiers hautement spécialisés. Que faut il en penser ? c’est un autre sujet…

    Bonne continuation à ce blog !

    Jérôme LESCURE
    Digital Entrepreneur

    1. Merci Jérôme pour ce commentaire détaillé !
      Le sujet passionne et cela probablement en raison des nombreuses œuvres de sciences fictions lues dans les Romans et vues sur les écrans, je citerais pour l’exemple le roman de David Gerrold publié par Ballantine Books en 1972: « Harlie avait un an ». Titre original: When HARLIE Was One. HARLIE est un acronyme pour Human Analog Replication, Lethetic Intelligence Engine.

      C’est l’histoire de la relation entre HARLIE l’ordinateur et son psychologue responsable de son éducation devant l’amener depuis l’enfance jusqu’à l’âge adulte. Ce pose alors la question philosophique posée dans le roman: HARLIE est ou non humain?
      Harlie est une des créations les plus fascinantes de l’intelligence artificielle.
      Contrairement à ce que l’on peut trouver dans ces œuvres de science-fiction, on ne trouve pas de possibilité d’auto programmation même dans les projets les plus audacieux de Deep learning et cela ne semble pas un axe de recherche.
      Les produits de l’intelligence artificielle ne risquent donc pas pour le moment de s’autonomiser et de se retourner contre leur créateur….
      Concernant vos remarques concernant le deep learning et la médecine, les choses sont déjà très avancées. Les algorithmes du système Watson d’IBM permettent déjà de proposer aux médecins des hypothèses de diagnostic et des propositions de traitement en termes de probabilités. Le problème pour le moment est de faciliter considérablement le travail des médecins et des chercheurs en traitant des masses colossales de données, de traiter et de croiser les data du génome, des bases de données cliniques, des base de données des articles scientifiques… In fine et dans la configuration actuelle (N’oublions pas que le cerveau artificiel ne sera pas disponible avant 30 à 100 ans…) l’accompagnement du patient reste de la responsabilité des médecins.
      L’ubérisation de la médecine est sa transformation numérique, particulièrement en utilisant les nouvelles techniques de l’information et de la communication. La voiture n’est qu’un moyen de transport, qui peut effectivement se passer de conducteur. Mais la médecine n’est pas comparable à un véhicule c’est un ensemble beaucoup plus complexe centré par le patient et œuvrant pour lui et pour la société en général si l’on considère que la prévention doit être privilégiée. Les médecins doivent s’emparer des nouveaux outils de communication, leurs rôles ne sont pour le moment pas marginalisés.
      L’objet du blog est de recentrer les débats en gardant la tête froide, et les pieds sur terre, il y a trop de fantasmes autour des projets notamment des géants du net…
      Merci de réagir à nos billets et à très bientôt !

  2. Rassurer pour convaincre des possibles à venir de l’IA n’est certainement pas chose facile. …. à comparer avec l’évolution lamentable des capacités éducatives espérées aux premiers temps de l’arrivée de la TV dans les foyers.
    C’est déjà assez intelligent aujourd’hui d’émettre de gros doutes, mais cette fois ci les dérapages d’une perte de contrôle ( cf mult fictions ) peuvent inquiéter plus sérieusement. L’exemple simple du plantage de logiciels ultra sécurisés, outils de firmes ultra spécialisées, doit titiller notre scepticisme.
    Une IA embarquée pouvait-elle donner la solution pour sauver la mission Apollo XIII ? que proposeraient les algorithmes actuels ?
    On parle d’interdire ces logiciels de boursicotage qui seraient capables de ruiner toute une économie mondiale en quelques nano secondes …. on doit dormir tranquille ? C’est encore l’histoire du sous-marin qui fait demi-tour avec une torpille bloquée dan son tube, torpille programmée pour ne jamais faire ce demi-tour !
    Le bénéfice du doute ET le principe de précaution doivent prévaloir, l’IA sera un outil à considérer avec le soin et les protections du type de celles de l’exploitation de l’atome, pour ne pas se développer erreurs après erreurs.

    Programmeur de la première génération ( assembleur et langages de niveaux 1 et 2 ) , je sais que la machine ne fait qu’interpréter du code dans les limites des précisions du code. NOUS en opposition nous ignorons ce qu’elle peut développer lors de situations non prévues par le code. C’est cette part d’aléatoire qui doit nous tenir éveillés, les multiples erreurs d’êtres humains aux cerveaux si développés sont à considérer. Et ce serait cette référence biologique si formidable …. que nous cherchons à reproduire ?

    1. Voilà la réponse

      Merci Xavier pour vos commentaires.

      L’augmentation régulière de la fréquentation de notre blog et en particulier le succès de ce billet démontre l’inquiétude de beaucoup devant ces progrès techniques. En fait cet article n’est pas critique envers l’intelligence artificielle elle même , mais critique par rapport aux interprétations journalistiques qui déforment assez souvent les propos des experts de l’IA, et qui égarent plus qu’ils n’informent les lecteurs qui peuvent ainsi parfois sur-réagir.
      Cela n’est pas spécifique à cette disruption provoquée par ces nouvelles techniques du XXIe siècle
      Comme le rappelle Alexis Normand dans son excellent livre « Prévenir plutôt que guérir. La révolution de la E-santé » n’oubliez pas la révolte dite des Luddites en 1811 et 1812 qui a fait suite à l’invention des métiers à tisser mécaniques, au plein cœur de la révolution industrielle en Angleterre. Il s’agissait déjà à cette époque d’une disruption. Cette révolte n’a pas eu que des effets nocifs puisqu’elle a permis au monde ouvrier d’obtenir un certain nombre d’avancées sociales. Pour certains cette révolte serait même à la base du syndicalisme.
      Le scepticisme la méfiance, voire l’opposition permettent probablement de donner du temps au temps et d’amender les effets des révolutions.
      Mais Je conclurai avec les propos de Joël de Rosnay
      « La stupidité naturelle est plus dangereuse que l’intelligence artificielle »
      (Article de Mika Ta ninga 25/10/2017, dans la Tribune Bordeaux)
      Au plaisir de vous lire sur notre blog !

Répondre à Jérôme LESCURE Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *