Les schémas winograd, ou comment savoir si votre interlocuteur est un robot ?

Ton interlocuteur te semble étrange. Rien d’extrêmement déroutant, tu n’arrives d’ailleurs pas vraiment à mettre le doigt sur le problème, mais quelque chose chez lui te fait hésiter entre l’envie de lui payer un coup à boire un de ces quatre, et la peur qu’il infiltre l’humanité pour dominer le monde. Il faudrait pouvoir en être sûr, mais comment faire ? Difficile de sortir un Captcha au milieu de la conversation, comme ça, en disant « au fait, tu peux lire ce qu’il y a d’écrit ici ? ». Mais heureusement, je suis là pour présenter les schémas Winograd.

Il est de plus en plus facile à un ordinateur de simuler un comportement humain. En Juin 2014 un programmeur a réussi à créer une intelligence artificielle nommée Eugene qui a convaincu 33% des juges d’un concours qu’il était un vrai petit garçon, franchissant ainsi un premier pallier sur l’échelle du test de Turing. Eugene a sans doute profité du fait que son personnage était un Ukrainien de 13 ans, excusant de fait des réponses sûrement étranges, mais il n’est de toute façon qu’une question de temps avant qu’un autre ordinateur réussisse à berner tout le monde.

Alors comment faire ? Plutôt que la maîtrise de la conversation, une meilleure méthode de détection serait de vérifier que l’interlocuteur a bel et bien eu une expérience humaine. Le problème étant qu’on ne peut pas poser de question comme « de quelle couleur est le ciel » ou « qu’est-ce que je ressens lorsqu’un membre de ma famille meurt », car des éléments de réponse se trouvent sur internet ou dans des livres, et qu’une IA suffisamment évoluée pourra s’en servir pour trouver une réponse convaincante. Il est souvent dit que les ordinateurs ne sont pas capables de créer des œuvres d’art émouvantes. Mais le problème est qu’une grande majorité d’humains non plus, ce qui fait que cela ne peut pas servir d’élément de test. En désespoir de cause, M. Winograd a élaboré sa propre méthode : les schémas Winograd.

Les schémas Winograd permettent d’utiliser la principale chose que les humains savent maîtriser mieux que les machines : l’ambiguïté. Il faut créer une phrase qui pourrait avoir deux sens, dont seulement l’un des deux est humainement concevable. Par exemple : Pierre n’a pas pu rentrer son bagage dans le coffre car il était trop grand. Qu’est-ce qui est trop grand : le bagage ou le coffre ? La phrase ne le précise pas. Notre expérience humaine nous indique que le bagage va à l’intérieur du coffre, et que pour que cela fonctionne, il faut que le coffre soit suffisamment grand, ou que le bagage soit suffisamment petit.  Si Pierre n’a pas pu faire rentrer l’un dans l’autre parce que l’un des deux était trop grand, c’était nécessairement le bagage. Une machine qui n’a jamais fait rentrer de bagage dans un coffre de voiture (ou l’inverse) est incapable de reproduire ce raisonnement, et ne peut pas déduire la réponse à la question de la phrase de présentation. Seul le fait d’avoir vécu permet d’interpréter cette phrase grammaticalement incertaine.

Et cette phrase n’est qu’un exemple, certains universitaires en génèrent des palanquées. Pour ceux qui pensent qu’il existe une méthode simple pour qu’un algorithme trouve la bonne réponse dans 90% des questions de ce genre, je les invite à le proposer à cette adresse, une récompense de 25.000$ les attend.

Les intelligences artificielles sont capables de calculer mieux que nous depuis longtemps. Certains ordinateurs composent de la musique, et la machine de Google rêve. On peut raisonnablement penser que certaines seront capables de produire des œuvres d’art dans le futur. Mais ce qu’il y a de plus amusant, c’est de se dire que là où les programmeurs vont le plus galérer à créer des IA « humaines », c’est dans les domaines ambigus comme celui-là : parce que les humains ne sont pas foutus de faire des phrases grammaticalement claires. Mais il faut que j’y aille, je dois aller aider une collègue. Elle n’a pas pu faire fonctionner l’imprimante parce qu’elle était bourrée.

Partager :
 

Sastien