Présent et avenir des correcteurs automatiques

Un récent article de Vice raconte l’his­toire des cor­rec­teurs auto­ma­tiques, une his­toire qui « a com­men­cé chez Micro­soft au début des années 90 ». L’au­teur conclut par ces mots : 

Aus­si per­fec­tion­nés soient-ils, les der­niers sys­tèmes de cor­rec­tion et de sug­ges­tion ne connaissent pas le sens des mots – seule­ment leur ortho­graphe et les rela­tions qui les unissent. Ancrer une com­pré­hen­sion séman­tique de la plus simple des langues dans la cer­velle figée d’une machine est encore impos­sible. 

Un jour, peut-être, les ordi­na­teurs maî­tri­se­ront mieux les règles du lan­gage que les êtres humains eux-mêmes. Reste qu’ils ne pour­ront jamais pré­dire vos inten­tions avec pré­ci­sion : aus­si aug­men­tée et sur­veillée soit-elle, votre écri­ture sera tou­jours la vôtre. Les petites entre­prises de cor­rec­tion auto­ma­tique le savent bien. […]

« Les cor­rec­teurs auto­ma­tiques ne seront[-ils] jamais bons », comme le titre l’ar­ticle ? Je l’i­gnore. Le trai­te­ment auto­ma­tique du lan­gage était déjà avan­cé quand j’é­tais étu­diant, au milieu des années 1980. Les tra­duc­teurs auto­ma­tiques et les logi­ciels de cor­rec­tion tels qu’Anti­dote ou Pro­Lexis en sont le résul­tat (les dic­tion­naires actuels en béné­fi­cient aus­si, à tra­vers l’a­na­lyse de cor­pus). Aujourd’­hui, ces logi­ciels pro­gressent sur le plan séman­tique, ter­rain de l’in­tel­li­gence humaine.

Dès 2000, un pro­fes­seur de fran­çais, Xavier Bihan, après avoir tes­té Pro­Lexis, écri­vait : « […] si la cor­rec­tion n’est pas par­faite à 100 %, le résul­tat est ample­ment satis­fai­sant1. » Je crains que ce ne soit aus­si l’avis de bien des édi­teurs. Si la marge d’erreur est accep­table, ils se pas­se­ront de nous, cor­rec­teurs. Beau­coup le font déjà. En effet, comme l’écrivait Que choi­sir en 2012 : « Même dans les col­lec­tions les plus pres­ti­gieuses, il est aujourd’hui impos­sible d’ouvrir un livre sans ren­con­trer, au détour d’un para­graphe, une coquille ou une faute de gram­maire. Et le pire est à venir2. »

M. Bihan ajoutait : 

Si les cor­rec­teurs qui nous sont actuel­le­ment pro­po­sés sur le mar­ché sont désor­mais très per­for­mants sur le plan de la véri­fi­ca­tion lexi­cale, gram­ma­ti­cale et syn­taxique, ils ne sont pas encore arri­vés au bout de leur déve­lop­pe­ment et les recherches portent actuel­le­ment sur la véri­fi­ca­tion séman­tique et sty­lis­tique. Le cor­rec­teur séman­tique se char­geant de veiller à ce que les mots ne pro­duisent pas de contra­dic­tion ou d’ab­sur­di­té alors que le cor­rec­teur sty­lis­tique trai­te­ra la chaîne de carac­tères que forme la phrase pour repé­rer les répé­ti­tions, les phrases trop longues, les angli­cismes, les pléo­nasmes, les mots vulgaires.

« […] la com­pré­hen­sion de la signi­fi­ca­tion séman­tique des mots d’une phrase reste une tâche en cours de recherche », confirme un autre article vingt ans plus tard3.

Un spé­cia­liste du trai­te­ment auto­ma­tique du lan­gage natu­rel (TALN), Fran­çois Yvon, en a expli­qué les dif­fi­cul­tés en jan­vier 2007 : 

Une des limi­ta­tions de pra­ti­que­ment tous les sys­tèmes de trai­te­ment un peu sophis­ti­qués est qu’ils font appel à une somme impor­tante de connais­sances d’expert : lexiques, règles de gram­maire, réseaux séman­tiques… Ceci explique en par­tie pour­quoi il n’existe pas de sys­tème de trai­te­ment qui soit à la fois com­plet (i.e. inté­grant tous les niveaux de trai­te­ment) et indé­pen­dant du domaine (i.e. capable de trai­ter avec une même effi­ca­ci­té n’importe quel type de texte). Il existe une autre rai­son, moins visible, qui limite l’avancée des pro­grès en TALN, et qui est que, pour un bon nombre de phé­no­mènes, l’état de la connais­sance lin­guis­tique est insuf­fi­sa­ment for­ma­li­sée pour pou­voir être uti­li­sée par les concep­teurs de sys­tèmes de TALN4

Mais les années passent et les pro­grès sont mani­festes. « Tout ce qui peut être auto­ma­ti­sé le sera », entend-on sou­vent dire de nos jours. 

En jan­vier 2018, des modèles d’in­tel­li­gence arti­fi­cielle déve­lop­pés par Micro­soft et Ali­ba­ba réus­sissent cha­cun de leur côté à battre les humains dans un test de lec­ture et de com­pré­hen­sion de l’uni­ver­si­té Stan­ford. Le trai­te­ment auto­ma­tique du lan­gage natu­rel imite la com­pré­hen­sion humaine des mots et des phrases et per­met main­te­nant aux modèles d’ap­pren­tis­sage auto­ma­tique de trai­ter de grandes quan­ti­tés d’in­for­ma­tions avant de four­nir des réponses pré­cises aux ques­tions qui leur sont posées5.

Au début de l’an­née der­nière, un article du CNRS annonce : 

Le trai­te­ment auto­ma­tique du lan­gage natu­rel a été cham­bou­lé en [novembre] 2018 par la publi­ca­tion de BERT, un modèle de langue pro­po­sé par Google. « Avant, chaque mot était mani­pu­lé sous forme d’un vec­teur unique, explique Laurent Besa­cier, pro­fes­seur à l’université Gre­noble Alpes. Des modèles comme Word2vec décri­vaient de façon unique des mots pour­tant poly­sé­miques, comme “avo­cat”. »

À l’inverse, BERT adapte sa repré­sen­ta­tion vec­to­rielle des mots en fonc­tion du contexte et fait ain­si la dif­fé­rence selon que l’on parle d’un fruit ou d’un juriste. C’est d’ailleurs ain­si qu’il s’entraîne : le modèle prend une phrase et masque un ou plu­sieurs mots au hasard, qu’il tente ensuite de devi­ner. Ce prin­cipe le rend extrê­me­ment per­for­mant, mais BERT a besoin d’être modi­fié pour chaque langue autre que l’anglais.

Des cher­cheurs du Labo­ra­toire d’informatique de Gre­noble (LIG, CNRS/Univ. Gre­noble Alpes), du Labo­ra­toire d’analyse et modé­li­sa­tion de sys­tèmes pour l’aide à la déci­sion (LAMSADE, CNRS/Université Paris Dau­phine-PSL) et du Labo­ra­toire de lin­guis­tique for­melle (LLF, CNRS/Université Paris Dide­rot) ont donc déve­lop­pé Flau­BERT, une ver­sion fran­çaise de BERT.

Ils l’ont entraî­né à par­tir d’un cor­pus de 71 giga­oc­tets de textes dans la langue de Molière, com­po­sés de tout Wiki­pé­dia en fran­çais, de plu­sieurs années du jour­nal Le Monde, des ouvrages fran­co­phones du pro­jet Guten­berg (dont bien enten­du du Flau­bert) ou encore des trans­crip­tions des débats du Par­le­ment euro­péen6 .

C’est plus qu’un grand lec­teur ne lira jamais. 

En juin der­nier, le socié­té fran­çaise Synapse Déve­lop­pe­ment annonce une nou­velle ver­sion de Cor­dial, son cor­rec­teur ortho­gra­phique, « boosté[e] à l’in­tel­li­gence articielle » :

Cor­dial Néo pro­met une qua­li­té de cor­rec­tion encore jamais vue grâce à l’intelligence arti­fi­cielle. Fruit de 25 ans de recherche en trai­te­ment auto­ma­tique du lan­gage, la tech­no­lo­gie de cor­rec­tion de Cor­dial Néo per­met une véri­table ana­lyse séman­tique et assure une cor­rec­tion opti­male de vos textes avec un taux de cor­rec­tion record de 90 % pour la gram­maire et de plus de 99,5 % pour l’orthographe7.

« Nous avons fait un choix édi­to­rial », explique Kevin Comte, le res­pon­sable com­mu­ni­ca­tion du logi­ciel fran­çais, dans l’ar­ticle de Vice cité au début du pré­sent billet. Quand quelque chose pose un doute, nous le sou­li­gnons et nous pro­po­sons des expli­ca­tions à l’utilisateur. Il lui appar­tient de cor­ri­ger s’il en a envie. » 

Pour l’ins­tant, le rédac­teur et le cor­rec­teur pro­fes­sion­nel gardent la main sur la machine. Jus­qu’à quand ? 


Source pho­to : Le Robert Cor­rec­teur.