Vers un modèlegénéral

Nous avons désormais tous les éléments pour engager la construction d’un modèle général de traitement des textes normatifs dans le double dessin annoncé dès le départ de codification et de simplification.

Il est bien évident que l’association des deux termes, codification et simplification, dans un même projet, induit une orientation particulière dans la conception de la codification, et qu’elle introduit dans le traitement à appliquer aux textes normatifs une dimension interprétative et du même coup, confère au modèle toute son épaisseur conceptuelle.

Structure générale du modèle

Le système devra posséder deux fonctionnalités fondamentales :

-          Permettre la constitution et l’enrichissement d’une base de connaissances juridiques.

-          Permettre l’interrogation de cette base de connaissances.

La constitution et l’enrichissement de la base de connaissances postulent la prise en compte :

-          des textes normatifs

-          des principes de droit, ceux-ci étant supposés détachés de sources textuelles précises, à défaut d’être effectivement non écrit.

-          des interprétations jurisprudentielles des textes eux-mêmes.

-          des décisions jurisprudentielles dont les faisceaux plus ou moins homogènes ont une incidence sur l’interprétation.

L’interrogation est susceptible de revêtir deux formes principales :

-          il peut s’agir d’une interrogation sur un texte ou sur un sujet recouvrant un nombre plus ou moins important de textes de natures diverses.

-          il peut s’agir de l’énoncé d’un problème que l’on donne à résoudre au système.

Nous n’avons pas la prétention de répondre à toutes les questions et l’énoncé de notre recherche restreint notre intervention au premier aspect de la fonction d’interrogation. Mais cet aspect est déjà tout à fait considérable et il n’est pas douteux que des progrès réalisés à ce titre permettent d’apporter des débuts de réponse au second aspect.

Nous avons conservé pendant toute notre recherche une approche linguistique, et nous pensons avoir apporté la démonstration, à la fois théorique et pratique, du caractère incontournable de ce niveau d’analyse, c’est-à-dire de l’absolue impossibilité d’agir autrement dès lors que l’on se pose comme contrainte initiale de minimiser l’analyse « manuelle ». De toute façon, comme nous l'avons vu, même si l'on n'en est pas toujours conscient, toute interprétation a un fondement linguistique.

La structure générale du modèle découle de ces contraintes fonctionnelles et épistémologiques, l’approche linguistique étant l’unique et inévitable voie d’accès aux textes.

 

Application 1 modele general

Le modèle linguistique

Le système linguistique comprend trois couches logicielles :

  • Une couche syntaxique : il s’agit d’un analyseur syntaxique selon les concepts systématisés par B. Pottier (1974) et présentés dans la seconde partie. Le niveau d’analyse va du mot à la phrase.
  • Une couche sémantique dont la fonction est d’extraire des textes les composants normatifs que nous avons identifiés dans la troisième partie. Nous utilisons ici les concepts d’analyse componentielles élaborés notamment par B. Pottier et par F. Rastier. Nous intégrons dans cette théorie générale l’apport de la théorie des topoï de Ducros-Anscombre, ainsi que les dimensions cognitive, argumentative et rhétorique, tant au niveau du mot que de la phrase, qui forment un des axes selon lesquels se développe la logique naturelle. Nous empruntons également à la logique naturelle la notion d’opération telle que formalisée par J. B. Grize, les composants normatifs que nous avons identifiés étant les produits d’opérations du même nom qui s’inscrivent pleinement dans la démarche de la logique naturelle. Mais nous avons vu à quel point nous sollicitions la théorie des voix de B. Pottier dans la construction du modèle des opérations normatives. La théorie des voix constitue selon nous la face linguistique des opérations logico-discursives de la logique naturelle. Elle réalise par ailleurs l’intégration des approches syntaxique et sémantique. L’espace d’analyse structuré en trois couches, microsémantique, mésosémantique et macrosémantique, est ici celui du discours, c’est-à-dire qu’il s’étend du syntagme à l’énoncé et au groupe d’énoncés pour former un ensemble sémantiquement homogène. La couche sémantique est considérée comme devant transmettre à la base de données juridiques, via la couche d’interface évoquée ci-après, tous les éléments de nature à permettre au système de gestion des connaissances de fonctionner, c’est-à-dire de répondre aux finalités qui lui ont été assignées.
  • Une couche d’interface avec la base de connaissances juridiques. Les composants normatifs textuels dont nous avons parlé sont le produit de premier niveau des opérations logico-discursives du même nom. Le produit final est le nouvel état de la base de données juridiques tel qu’il résulte des transformations effectuées par lesdites opérations.

 

 

Le modèlede gestion des connaissances

Le système de gestion des connaissances est composé de deux sous-ensembles :

-          Une base de connaissances juridiques

-          Un système de raisonnement

La base de connaissances juridiques comporte des composants primaires et des composants secondaires

-          Les composants primaires sont les composants normatifs bruts, à savoir les textes eux-mêmes et les principes de droit et de jurisprudence non directement rattachables à un texte auxquels nous avons donné une structure au moyen des opérations normatives étudiées précédemment. Ces composants ont un statut qui détermine les conditions de leur intégration dans des traitements avals. S’y ajoutent les cas d’application des textes et principes considérés qui sont autant d’actes interprétatifs conférant aux textes juridiques leur valeur normative.

-          Les composants secondaires sont le produit des traitements appliqués par le système linguistique aux composants primaires. Ces composants secondaires sont structurés en un système comprenant des acteurs, des concepts, des actes et des normes. Les actes peuvent être des actes simples ou des actes complexes correspondant à des procédures. Les normes s’inscrivent dans des hiérarchies complexes d’actes normatifs et vont de la norme la plus générale (Constitution, principe général) à des normes spécifiques (celles qui régissent un organisme particulier ou une catégorie d’organismes par exemple). La règle spécifique est attachée à l’acteur ou à l’acte dont elle est indissociable. La règle générale est un objet à part entière.

Le système de raisonnement se compose d’un certain nombre de modules dont la liste exhaustive supposerait que l’on ait complètement élucidé et formalisé tous les aspects du raisonnement juridique. C’est un champ de recherche immense aux multiples compartiments par rapport auquel nous sommes restés comme en lisière, notre priorité ayant été la constitution de la base de connaissances. Certains modules peuvent avoir un rôle très général. D’autres peuvent être le résultat de constructions doctrinales spécifiques. Nous ne pouvons ici que donner quelques aperçus partiels :

Dans la catégorie des modules transversaux, nous pouvons citer plus particulièrement :

-          module de gestion dynamique des définitions-catégorisations.

-          module d’analyse et de compréhension : il s’agit du module sémantique terminal du système d’analyse linguistique. Il intervient ici autant en tant que gestionnaire de la base de connaissances que comme moyen d’exploitation de cette base : navigation, interrogation, extraction. Il comporte des sous-modules correspondant aux différentes structures normatives que nous avons regroupées en sept grandes familles de normes précédemment identifiées et qui sont le produit des opérations normatives logico-discursives : normes définitionnelles, institutives, explicatives, attributives, déclaratives, descriptives, prescriptives

-          module de gestion dynamique de la qualification juridique, ce module pouvant faire appel à plusieurs méthodologies (faisceau d’indices ou approche multicritères, raisonnement probabiliste, réseaux de neurones, etc.).

-          module de raisonnement par précédent et par analogie, module susceptible de travailler avec les deux premiers.

-          module de raisonnement par classification (raisonnement taxinomique).

-          module de résolution des conflits de normes ou de décision.

-          module de raisonnement par généralisation-extrapolation.

Parmi les modules à vocation spécifique, nous pouvons seulement amorcer une liste qui risque d’être particulièrement longue :

-          application du principe d’égalité.

-          application des principes de l’application des textes normatifs dans le temps (principe général de non-rétroactivité, application rétroactive de la loi pénale plus douce, théorie du retrait, etc.).

-          application des principes de la responsabilité civile.

-          application des principes de la responsabilité administrative, ces constructions faisant nécessairement appel à d’autres modules (celui de la qualification juridique pour la notion de faute par exemple).

-          application des principes de séparation des compétences administratives et judiciaires.

-          etc.

Autant dire que la conception de ces modules dépend très largement du domaine du droit auquel on s’intéresse.

En effet, si nous avons voulu conduire une réflexion susceptible de s’appliquer à l’ensemble des textes normatifs, il va de soi que l’application du système ne saurait être développée que de manière modulaire sur des domaines du droit à la fois circonscrits et homogènes pour être opérationnellement pertinente.

620,00

Modèles de représentation des connaissances
en droit

Nous pouvons dresser un panorama des différents types de programmation mise en œuvre en vue d’une modélisation des connaissances en droit. Notre objectif est de mettre en évidence les outils qui nous semblent les plus appropriés en ce qui concerne l’objet de notre recherche. La question n’est pas tant de proposer une méthode idéale, mais de faire apparaître les conditions et limites de telle ou telle approche. Signalons que le domaine a été déjà balisé notamment par J-P Bourgois (1996), mais il est clair que notre recherche est de nature à apporter des éléments complémentaires à ce qui a été écrit sur le sujet.

L'approche procédurale

L’approche procédurale dans laquelle une procédure administrative est intégralement écrite en dur dans le programme est a priori très éloignée de notre perspective, puisque par définition nous ne partons pas des procédures, mais des textes dont nous recherchons les moyens d’extraire les connaissances dont les procédures sont un aspect.

Même si certaines procédures simples ou moins simples, telles que le cas du retrait des actes administratifs présenté par J-P Bourgois, sont susceptibles d’être traitées de manière procédurale, cette approche impliquant une programmation directe par le programmeur, on ne s’étonnera que nous n’envisagions pas, sauf cas extraordinaire, de recourir à ce type de méthode.

Il ne s’agit pas d’une condamnation de l’approche procédurale. Mais il est intellectuellement nécessaire de reconnaître la contradiction entre notre propre démarche et l’approche procédurale. Si, du fait du changement d’un texte législatif ou réglementaire, nous devons modifier directement le programme, il s’agirait d’une entorse évidente au principe que nous nous sommes fixé de déduire des règles d’une analyse textuelle.

Cependant, nous avons déjà observé (renvoi première partie p. 45) que tout le droit ne se trouve pas dans les textes, et qu’au-delà des textes le droit est structuré par des méta-règles que l’on trouve davantage dans la doctrine ou la jurisprudence que dans les textes législatifs et réglementaires. L’intégration des méta-règles dans une approche interprétative comme la nôtre est une nécessité qui a été très opportunément soulignée par Daniel Poulin (1996). Elle peut s’opérer par la voie du texte, mais elle peut se faire par l’introduction de tout module empruntant n’importe quelle méthode de programmation, pourvu qu’elle soit adaptée à son objet. On ne peut donc pas exclure d’intégrer dans divers objets représentatifs de tel ou tel concept ou théorie juridique des modules de type procédural qui en expriment certains comportements.

L'approche déclarative

L’approche déclarative qui est à la base de la programmation logique, bien qu’elle soit intellectuellement beaucoup plus proche de notre recherche que l’approche procédurale, rencontre le même type d’objection.

L’approche déclarative, typique des systèmes experts, suppose un acte qui s’assimile à un acte de programmation. Il s’agit en effet de déduire des connaissances de l’expert des règles dites règles de production, selon le modèle « si …alors…. ».

C’est ensuite seulement que le système expert, grâce au moteur d’inférence, est en mesure de jouer le rôle que l’on attend de lui, en termes d’autoformation, de réponse aux questions des usagers ou d’aide au diagnostic.

Or, notre espace de recherche est celui qui va de l’expertise contenue dans les textes à la production éventuelle de règles de production, en passant par la génération de schèmes conceptuels représentatifs d’opérations logico-discursives que nous avons appelé dans le contexte qui est le nôtre des opérations normatives.

Notre problème est celui de la lecture experte des textes. Si l’on introduit dans le système des éléments de système expert, il s’agira d’un aboutissement du processus d’analyse textuelle et de la production finale de l’outil. Encore faut-il d’ailleurs prouver que la traduction des normes juridiques en règles de production est une nécessité absolue. Notre hypothèse de travail est que l’on peut en faire l’économie.

Nous faisons nôtre l’approche isomorphique exposée par Daniel Poulin (1996), consistant à stocker le savoir sous une forme qui respecte le plus possible la forme des textes normatifs eux-mêmes.

Le moyen d’y parvenir, tout en dotant le système d’une capacité de réflexion, ce sont les opérations normatives précédemment évoquées qui sont des objets structurés auxquels on peut appliquer des traitements.

L'approche par la logique floue

Nous avons, dans la première partie (cf. p. 105), développé l’idée que la logique floue était étrangère au droit, malgré la présence dans le droit de nombreux concepts ou notions flous. Les notions de faute simple ou de faute lourde par exemple échappent à toute définition précise permettant une identification certaine. Par contre, la conséquence juridique qui doit être tirée de la qualification d’un acte dans l’une de ces deux catégories est par contre tout à fait précise. Le droit comprend de nombreux systèmes à effet de seuil, dans lesquels les phénomènes de rétroaction sont inexistants. C’est en ce sens que le raisonnement juridique ne peut s’appuyer sur la logique floue, en tout cas pas d’une manière globale. Rien n’empêche cependant d’utiliser partiellement la logique floue pour classer des actes fautifs dans des classes de quantification, pouvant elles-mêmes partiellement se recouper afin d’aider à la prévision de l’interprétation des faits et donc à la prévision d’une décision juridictionnelle. Le domaine d’application de ce type de méthode est celui de la qualification juridique des faits, avec comme condition de pertinence que la base de faits soit suffisamment fournie et suffisamment homogène pour que la classification soit elle-même statistiquement significative.

Conceptuellement séduisante, cette approche se heurte à la question de l’identification des critères de distinction des situations ou des faits à évaluer, et celle que la délimitation des classes de quantification.

On peut donc penser que l’approche connexionniste qui élude en grande partie ce type de question est plus opératoire.

L'approche connexionniste

Cette approche ayant été évoquée dans la première partie (cf p. 106), il n’y a pas lieu d’y revenir, sauf pour la situer dans l’architecture globale du système à développer.

La fonction susceptible d’être remplie par les réseaux de neurones formels est assez semblable à ce qui vient d’être dit de la logique floue.

Si le raisonnement juridique reste fondamentalement syllogistique, il implique toutefois des appréciations de situation pour décider de l’application de concepts ou notions floues. De nombreux cas de qualification juridique ou d’appréciation selon le principe de proportionnalité non seulement se prêtent mais impliquent pour toute tentative de résolution de manière automatisée un recours soit à la logique floue restreinte, soit à l’approche connexionniste. Le choix relève d’une comparaison des performances des deux approches. En l’état présent des recherches, il apparait que l’approche connexionniste donne des résultats pratiques relativement convaincants, comme semblent le montrer notamment les études de Danièle Bourcier (1992) et Valéry Mayer-Blimont (1996). La force de l’approche connexionniste est sans doute de ne pas nécessiter une structuration logique préalable et de permettre un apprentissage progressif à partir d’exemples.

Certes l’automatisation implique un codage manuel préalable des textes jurisprudentiels pénalisant, mais cette phase est évidemment incontournable, et plus les concepts et notions impliqués dans un raisonnement juridique sont flous, plus grande sera la place des outils de cette nature dans le processus interprétatif. Passé ce stade de reconnaissance des formes juridiques, le raisonnement redevient syllogistique. On peut dès lors emprunter des voies telles que celles des règles de production propre aux systèmes déclaratifs ou d’autres, comme les graphes conceptuels, encore peu développés pour ce type d’application. Nous avons déjà évoqué ce moyen dans notre première partie, que Danièle Bourcier a également utilisé pour définir une « sémantique interactionnelle », « nouveau paradigme pour la formalisation des connaissances jurisprudentielles » (1996).

L'approche par les graphes conceptuels (sémantique interactionnelle)

La problématique de la « sémantique interactionnelle » est celle de l’interaction entre l’utilisateur s’exprimant en langue naturelle et l’expert juridique qui en l’occurrence est représentée par la base de connaissances juridiques et son système de traitement. L’utilisateur et l’expert étant à des niveaux de connaissance différents, la communication s’établit au moyen d’un langage commun compréhensible par les deux interlocuteurs. La base de ce langage est un certain type de représentation inspiré des graphes conceptuels de Sowa.

Les graphes conceptuels sont construits à partir d’une exploitation syntaxique des textes, les textes juridiques, quand il s’agit de décisions juridictionnelles, étant constitués non par le texte complet des décisions et des attendus, mais par le résumé qui en est fait par des spécialistes.

Cette approche appelle de notre part plusieurs observations.

D’abord, nous pensons qu’il s’agit d’un système de représentation particulièrement efficace dans une perspective de communication homme-machine. Nous en avons fait pour notre part un large usage, puisque en définitive ce que nous avons appelé des opérations logico-discursives, qui dans le contexte où nous nous plaçons, sont des opérations normatives, aboutissent à des graphes conceptuels, dont le principe de représentation s’avère d’une grande généralité.

Secondement, les graphes conceptuels, dans leur présentation graphique, ne sont directement exploitables informatiquement, mais leur traduction en langage informatique, n’est pas un problème insurmontable. Le LISP ou le langage C offrent une réponse très simple, puisqu’un graphe conceptuel se ramène à une fonction avec arguments, la difficulté se trouvant dans le degré souvent très élevé d’emboîtement des graphes les uns dans les autres. Il faut également signaler le développement d’un langage spécialisé dans la représentation des connaissances, le KIF, (Knowledge Interchange Format), produit d’une recherche visant à faire du KIF un American National Standard for KIF.

Troisièmement, l’approche interactionnelle ne permet pas de faire l’économie, chaque fois que se pose la question de la qualification juridique des faits par rapport à un concept ou une notion flou, d'une approche plus adaptée. Quand il faut qualifier une situation, certains faits voire une décision administrative de faute lourde, d’atteinte grave à l’ordre publique ou à une liberté, ou encore d’erreur manifeste, il faut recourir à une technique d’élucidation qui tient plus de l’approche connexionniste que d’une représentation conceptuelle. Mais, ce qu’il est important de souligner, c’est qu’il n’y a nullement contradiction, mais bien plutôt complémentarité, car d’une ou plusieurs réponses ponctuelles sur la qualification juridique dépend en fait tout le cheminement du raisonnement juridique.

D’où l’idée générale d’une architecture à trois compartiments :

  • un compartiment strictement textuel, fondé sur une analyse des textes
  • un compartiment casuel, fondé sur des analyses de cas pour lesquels sont mobilisés les textes eux-mêmes, mais aussi tous les savoirs juridiques mis en œuvre par le juge face à une situation donnée
  • enfin, un compartiment situationnel destiné à établir que tel fait, telle situation, telle décision ou tel acte est justiciable de telle ou telle qualification juridique.

C’est ainsi de la coopération entre ces trois compartiments que naît le raisonnement juridique et qu’il prend corps concrètement.

L’architecture est donc coopérative, ce qui permet de la réaliser sur des unités de traitement différentes connectées en réseau local ou distant.

Nous tenons à souligner que notre recherche s’est essentiellement attachée au compartiment textuel, tout en envisageant les connexions possibles avec les deux autres compartiments.

L’approche objet

L’approche objet a sa spécificité, mais elle a aussi le mérite de pouvoir englober toutes les autres.

L’approche, comme fondement de tous les développements envisagés, se justifie pour trois raisons fondamentales.

Tout d’abord, l’organisation du dictionnaire sémique implique une base de données objet. En effet, chaque élément s’inscrit dans une hiérarchie taxinomique coordonnée par la règle de l’héritage. Tout hyponyme comporte comme sèmes génériques inhérents l’ensemble des sèmes de son hyperonyme le plus proche. Ainsi, l’université est un type d’établissement public scientifique, culturel et professionnel qui est lui-même un type particulier d’établissement public.

En second lieu, tous les éléments du dictionnaire ne se laissent pas seulement appréhender par une série de traits sémantiques. Ils ont parfois des règles de fonctionnement complexes. Par exemple, le terme de responsabilité nécessite pour être correctement identifié un nombre réduit de traits sémantiques représentatifs de son sens restreint, mais si l’on veut capter toute la richesse du concept, il faut lui associer des règles qui, si l’on se place dans le contexte de la responsabilité civile, seront une traduction opératoire de la doctrine de la responsabilité civile, et si l’on est dans le contexte de la responsabilité administrative, représentent une doctrine qui présente certains points communs avec la première mais a aussi sa spécificité. Nous avons donc des objets au sens plein du terme, avec des traits distinctifs, des caractéristiques, mais aussi des méthodes qui vont doter notre concept de qualités opératoires particulières.

Enfin, nous avons vu que la résolution de certains problèmes juridiques, notamment les problèmes d’appréciation des faits et de qualification juridique nécessitaient des outils d’analyse ou de raisonnement spécifiques. Or, les langages objet ont cet avantage de pouvoir s’associer à des outils plus spécifiques pouvant répondre de manière plus adaptée à une question donnée.

Le développement du système implique par conséquent :

  • un système de base de données objet
  • un langage à objet admettant l’héritage multiple
  • une architecture à objets distribués

L’approche linguistique

Les approches précédemment évoquées relèvent des techniques de programmation. On peut donc s’étonner de voir figurer une approche linguistique qui, si elle a recours à l’informatique, utilisera une ou plusieurs des technologies sus-évoquées.

Ce qui justifie la place de l’approche linguistique dans ce chapitre, c’est le fait que l’approche linguistique postule un renversement complet de perspective par rapport aux méthodologies d’analyse et de développement utilisées jusqu'à présent.

Toutes les applications informatiques, qu’elles concernent d’ailleurs le domaine du droit ou n’importe quel autre domaine, postulent préalablement aux développements proprement dits et à la programmation, une analyse que l’on qualifie généralement de conceptuelle qui procède par interview et par modélisation.

Or, l’approche linguistique bouleverse cet ordonnancement. Il s’agit en effet de procéder à travers des outils généraux à l’analyse des textes et aux étapes de leur interprétation qui restent automatisables. Analyser les énoncés et les textes, en proposer une modélisation, comparer les formulations et les significations et organiser leurs articulations, tel est l’objet de l’analyse linguistique. L’analyse linguistique utilise une base de connaissances préalablement définie, mais cette base de connaissances s’enrichit elle-même de l’analyse linguistique.

Construction du module d’analyse

Nous avons pu dégager une progression dans l’analyse qui part des niveaux syntaxique et microsémantique et procède ensuite par agglomérations successives. Les étapes sont les suivantes :

  • identification des voies
  • identification des opérations logico-normatives
  • agglomérations par juxtaposition et/ou emboîtement d’opérations logico-normatives
  • thématisation en chaînes sous forme d’arborescence et de liens transversaux

Au total, nous obtenons une structure objet complexe et dynamique.

Les opérations logico-normatives forment un type d’objet décomposable en sous-types et sous-sous-types.

Ces opérations élémentaires au niveau juridico-sémantique sont appliquées à des entités élémentaires qui subissent une transformation par :

  • ajout-modification de propriétés statiques ou dynamiques
  • héritage (relation sorte de…, être un )
  • décomposition (relation partie de)
  • mise en relation

Tandis que les objets élémentaires, entités comme opérations, s’intègrent dans des structures hiérarchiques propres, les occurrences d’opérations élémentaires logico-normatives s’agglomèrent en fonction du discours par thématisation pour former des structures plus ou moins stables ou fluides. La stabilité de ces structures est une caractéristique du texte normatif. Elles sont elles-mêmes des objets fondés sur des agencements spécifiques d’entités-opérations logico-normatives. Elles s’intègrent elles-mêmes dans des structures thématisées plus globales existant formellement ou non sous forme de chapitres, titres, parties et textes entiers.

La complexité est évidente. Le caractère dynamique doit être souligné.

Ainsi que nous l’avons dit à plusieurs reprises, un texte juridique n’acquiert son caractère de norme que par l’interprétation, cette interprétation pouvant venir notamment de circulaires d'application ou de la jurisprudence. De plus, le texte juridique est toujours susceptible d’évolution, son statut peut changer (abrogation, annulation, inapplicabilité notamment), son texte peut être modifié. Même stables, les structures normatives sont donc fondamentalement plastiques. Et, de cela, le système informatique doit savoir tenir compte.

En même temps qu’elle est plastique, la structure normative est unique. C’est une structure organisée dans laquelle la position respective des éléments qui la constituent et les relations qu’ils entretiennent sont porteuses de sens.

Imaginons le sens qu’aurait la constitution de la Ve République si le titre II consacré au président de la République, avant le Gouvernement et le Parlement, était relégué après le Conseil Économique et Social, sans qu’un seul mot, à la numérotation des articles près, ne soit changé.

Nous concluons de cette observation que la validité du système informatique impose qu’au terme de l’analyse, le texte initial puisse être restitué en substance sinon à l’identique.

La question se complique dès lors que le sens du texte ne dépend pas du texte seul, mais aussi d’autres textes, voire des pratiques et usages qui se sont développés et qui ont également fait prévaloir une certaine interprétation.

La solidarité entre le texte initial et ce que nous appellerons des agents d’interprétation est une composante incontournable du système qui doit donc être doté d’une capacité de traçabilité.

La codification

Nous avons été à plusieurs reprises amenés à rapprocher la démarche du modélisateur de celle du codificateur. Il peut donc être utile de bien préciser ce qu’il y a de commun entre ces deux approches et ce qui les différencie fondamentalement.

L’objet principal de tout ce qui a précédé était bien de déterminer dans quelle mesure la modélisation des connaissances prolongée de sa mise en œuvre informatique était de nature à modifier les conditions de la codification, dans ses conditions tant de production que d’utilisation, et, par voie de conséquence, à fournir les moyens d’une meilleure accessibilité et d’une simplification du droit.

Quelques observations s’imposent.

Tout d’abord, il ne saurait être question d’aborder ici la question récurrente et largement débattue de l’opportunité et de la faisabilité de la codification. Le débat nous paraît quelque peu dépassé. Tous les pays modernes sont confrontés au problème de la surproduction de textes normatifs, ce qui a pour effet à la fois de renforcer la nécessité d’une codification et d’en souligner la difficulté. N’est-elle pas une course utile et nécessaire mais toujours en retard sur les besoins et presque perdue d’avance. Faisant fi de la tradition anglo-saxonne, les Américains ont inventé la législation à durée déterminée qui nécessite une évaluation et une réécriture périodique de l’ensemble d’une législation. Méthode originale, sans doute non généralisable, mais qui va comme la codification dans le sens d’un nettoyage et d’une mise en cohérence du droit par les moyens de la législation, et non de la jurisprudence, ce qui la rattache plus à la tradition latine qu’à celle de la common law.

Sans aller plus avant dans la discussion, nous nous situons donc dans le sens de l’effort conduit en France depuis plus de vingt ans sous l’impulsion de Guy Braibant.

Une seconde remarque portera sur l’emploi du singulier ou du pluriel pour la codification. Il existe en effet plusieurs formes possibles de codification, et il importe de savoir de quelle codification l’on parle. Pour s’en tenir à l’essentiel, on peut distinguer trois formes principales :

  • La codification-compilation de textes ou de coutumes en vigueur. Se rattache à ce type le Digest de Justinien ou le recueil des coutumes de France. Le recueil des lois et décrets en est une version moderne et un outil de travail irremplaçable.
  • La codification parallèle au droit existant, qui n’a pas vocation à le remplacer. Cette méthode qui ne requiert aucune procédure normative particulière n’est pas une codification même si elle passe par la voie réglementaire. Elle présente plusieurs défauts dirimants. Elle améliore l’accessibilité aux textes, mais ne garantit ni la mise à jour, ni l’exhaustivité. L’écart entre le code et les textes en vigueur se creuse et le rend vite obsolète.
  • La codification substantielle assortie d’une abrogation des textes existants. C’est la voie choisie aujourd'hui. Elle implique des exigences procédurales très strictes, les dispositions législatives ne pouvant être codifiées que par la voie législative ordinaire ou celle des ordonnances. Elle n’interdit pas la conservation d’un certain historique de la législation, qui est une nécessité juridique. Elle modifie les conditions du travail législatif et réglementaire qui porte désormais sur le code et non sur des textes disparates. Elle assure un encrage durable de la codification dans les méthodes d’élaboration des textes normatifs dont le code devient la référence. Mais le développement est ralenti par la lourdeur de la tâche et l’ampleur des moyens à mettre en œuvre dans la durée.
    L’effort est également freiné du fait que la codification peut difficilement être autre qu'une codification à droit constant. Or, l’idée de codification à droit constant soulève certaines difficultés :
    • - la condition de respect du droit existant peut être difficile à satisfaire dans la mesure où la délimitation du droit existant est parfois difficile. Certains textes toujours en vigueur sont parfois méconnus et ignorés par la nouvelle codification. Leur portée juridique est parfois incertaine.
    • Par ailleurs, comme nous l’avons déjà suggéré, sans aller jusqu'à nier la possibilité de la codification à droit constant, l’agencement des textes peut dans certains cas en infléchir l’interprétation à défaut d’en changer la signification.
    • La législation ou la réglementation à droit constant est par définition paradoxale dans la mesure où le rôle du Parlement et de l’administration est plus de réformer que de conserver.

La motivation pour codifier et les moyens nécessaires sont donc difficiles à obtenir.

Le risque est grand, après un effort de codification tout à fait considérable et positif, de voir la volonté politique se relâcher et l’espace juridique de droit codifié à nouveau reculer au profit du droit dominé par le pragmatisme et la renonciation à toute approche globale et systématique.

Devant cet état de fait assez peu satisfaisant, on est en droit de se poser la question de savoir si la recherche ici présentée est susceptible de donner un nouvel élan à la codification en en amplifiant la portée tout en en modifiant radicalement les méthodes. Cette interrogation suppose que l’on ait acquis une pleine maîtrise des technologies dont nous avons ici exploré les bases, maîtrise qui présentement n’est évidemment pas assurée. Beaucoup de travail reposant sur des expérimentations est nécessaire pour envisager une utilisation efficace et donc présenter comme une évolution plausible ce qui présentement n'est qu'une tentative d’anticipation, une prospective conjecturale.

Sous ces nécessaires précautions, il nous apparaît que l'on peut escompter des retombées en ce qui concerne tant la conception des codes que leurs fonctionnalités. L’impact peut être sensible à plusieurs points de vue :

  • Du point de vue de l’élaboration des codes, le système doit, à partir d’une quantité variable de textes, produire une organisation globale cohérente et complète, et l’on peut concevoir que, sans altérer la liberté d’appréciation du codificateur, le système apporte à ce dernier une assistance bénéfique en termes de productivité et de sécurité.
  • Du point de vue de l’écriture, celle du droit peut se trouver passablement transformée du fait de l’utilisation d’outils de cette nature. De même que dans un droit codifié, le rédacteur ne devrait penser les modifications réglementaires ou législatives que par rapport au code, on peut également imaginer qu’en présence d’un outil tel que celui ici envisagé, le rédacteur pourrait soit introduire pour analyse un nouveau texte ou un texte modifié, soit modifier directement la base de connaissances et testerait l’impact des modifications textuelles sur l’architecture et la cohérence des normes existantes.
  • Du point de vue de l’interrogation, on peut envisager que sur la base d’une question formulée en langage naturel, le système produise sous forme textuelle le droit applicable assorti des références textuelles. Il s’agit d’une perspective de développement qui demandera des mises au point qui ne sont pas sans analogie avec les techniques mises en œuvre par certains logiciels d’importation de site Internet où l’utilisateur doit préciser le nombre de niveaux de dépendance qu’il souhaite inclure dans sa recherche. Toutefois, pour une question fermée, la réponse devrait tout simplement être la réponse à la question.
  • Du point de vue de la résolution de problème, il est possible d’envisager une modélisation de décisions juridictionnelles types qui permettraient de traiter de façon quasi automatique au moins 90 % des recours qui ne soulèvent pas de question de principe nécessitant une interprétation créatrice du juge. Le mot « automatisation » ne doit pas inquiéter : il ne s’agit pas de remplacer le juge, mais de lui préparer le travail en respectant bien entendu sa pleine liberté d’appréciation et le principe de l’examen particulier de chaque affaire qui s’impose tant à l’administration qu’au juge. On peut imaginer que l’outil, mis entre les mains des justiciables ou de conseils juridiques, pourrait simuler les décisions de justice, mieux qu’aucun recueil de jurisprudence existant ne le ferait, et pourrait peut-être constituer un moyen de prévention des litiges.
  • Du point de vue de la décision administrative, on est en droit de penser que dans les administrations pourvues d’un service juridique, l’outil envisagé pourrait améliorer sensiblement la productivité. Dans les administrations non pourvues d’un service juridique étoffé, l’outil pourrait offrir le moyen aux petites cellules juridiques sans effectifs de remplir plus efficacement leur rôle de conseil préalable à la décision.
  • Du point de vue de la formation, on peut imaginer que le même instrument mis à la disposition des professeurs et des étudiants pourrait constituer un puissant instrument de formation.

Ceci est présentement de la prospective, mais nous pensons qu’il n’existe aucun obstacle scientifique ou philosophique à ce que cette prospective se réalise. Dans ce contexte, il est évident qu’il ne s’agit plus tellement d’envisager l’impact de ces développements sur la codification. En réalité, c’est d’un bouleversement des conditions même de l’accessibilité au droit qu’il s’agit, et de l’apparition d’une codification électronique, navigationnelle et hypertextuelle, qui n’aura plus qu’un lointain rapport avec la codification manuelle que nous connaissons.

La codification

Nous avons été à plusieurs reprises amenés à rapprocher la démarche du modélisateur de celle du codificateur. Il peut donc être utile de bien préciser ce qu’il y a de commun entre ces deux approches et ce qui les différencie fondamentalement.

L’objet principal de tout ce qui a précédé était bien de déterminer dans quelle mesure la modélisation des connaissances prolongée de sa mise en œuvre informatique était de nature à modifier les conditions de la codification, dans ses conditions tant de production que d’utilisation, et, par voie de conséquence, à fournir les moyens d’une meilleure accessibilité et d’une simplification du droit.

Quelques observations s’imposent.

Tout d’abord, il ne saurait être question d’aborder ici la question récurrente et largement débattue de l’opportunité et de la faisabilité de la codification. Le débat nous paraît quelque peu dépassé. Tous les pays modernes sont confrontés au problème de la surproduction de textes normatifs, ce qui a pour effet à la fois de renforcer la nécessité d’une codification et d’en souligner la difficulté. N’est-elle pas une course utile et nécessaire mais toujours en retard sur les besoins et presque perdue d’avance. Faisant fi de la tradition anglo-saxonne, les Américains ont inventé la législation à durée déterminée qui nécessite une évaluation et une réécriture périodique de l’ensemble d’une législation. Méthode originale, sans doute non généralisable, mais qui va comme la codification dans le sens d’un nettoyage et d’une mise en cohérence du droit par les moyens de la législation, et non de la jurisprudence, ce qui la rattache plus à la tradition latine qu’à celle de la common law.

Sans aller plus avant dans la discussion, nous nous situons donc dans le sens de l’effort conduit en France depuis plus de vingt ans sous l’impulsion de Guy Braibant.

Une seconde remarque portera sur l’emploi du singulier ou du pluriel pour la codification. Il existe en effet plusieurs formes possibles de codification, et il importe de savoir de quelle codification l’on parle. Pour s’en tenir à l’essentiel, on peut distinguer trois formes principales :

  • La codification-compilation de textes ou de coutumes en vigueur. Se rattache à ce type le Digest de Justinien ou le recueil des coutumes de France. Le recueil des lois et décrets en est une version moderne et un outil de travail irremplaçable.
  • La codification parallèle au droit existant, qui n’a pas vocation à le remplacer. Cette méthode qui ne requiert aucune procédure normative particulière n’est pas une codification même si elle passe par la voie réglementaire. Elle présente plusieurs défauts dirimants. Elle améliore l’accessibilité aux textes, mais ne garantit ni la mise à jour, ni l’exhaustivité. L’écart entre le code et les textes en vigueur se creuse et le rend vite obsolète.
  • La codification substantielle assortie d’une abrogation des textes existants. C’est la voie choisie aujourd'hui. Elle implique des exigences procédurales très strictes, les dispositions législatives ne pouvant être codifiées que par la voie législative ordinaire ou celle des ordonnances. Elle n’interdit pas la conservation d’un certain historique de la législation, qui est une nécessité juridique. Elle modifie les conditions du travail législatif et réglementaire qui porte désormais sur le code et non sur des textes disparates. Elle assure un encrage durable de la codification dans les méthodes d’élaboration des textes normatifs dont le code devient la référence. Mais le développement est ralenti par la lourdeur de la tâche et l’ampleur des moyens à mettre en œuvre dans la durée.
    L’effort est également freiné du fait que la codification peut difficilement être autre qu'une codification à droit constant. Or, l’idée de codification à droit constant soulève certaines difficultés :
    • - la condition de respect du droit existant peut être difficile à satisfaire dans la mesure où la délimitation du droit existant est parfois difficile. Certains textes toujours en vigueur sont parfois méconnus et ignorés par la nouvelle codification. Leur portée juridique est parfois incertaine.
    • Par ailleurs, comme nous l’avons déjà suggéré, sans aller jusqu'à nier la possibilité de la codification à droit constant, l’agencement des textes peut dans certains cas en infléchir l’interprétation à défaut d’en changer la signification.
    • La législation ou la réglementation à droit constant est par définition paradoxale dans la mesure où le rôle du Parlement et de l’administration est plus de réformer que de conserver.

La motivation pour codifier et les moyens nécessaires sont donc difficiles à obtenir.

Le risque est grand, après un effort de codification tout à fait considérable et positif, de voir la volonté politique se relâcher et l’espace juridique de droit codifié à nouveau reculer au profit du droit dominé par le pragmatisme et la renonciation à toute approche globale et systématique.

Devant cet état de fait assez peu satisfaisant, on est en droit de se poser la question de savoir si la recherche ici présentée est susceptible de donner un nouvel élan à la codification en en amplifiant la portée tout en en modifiant radicalement les méthodes. Cette interrogation suppose que l’on ait acquis une pleine maîtrise des technologies dont nous avons ici exploré les bases, maîtrise qui présentement n’est évidemment pas assurée. Beaucoup de travail reposant sur des expérimentations est nécessaire pour envisager une utilisation efficace et donc présenter comme une évolution plausible ce qui présentement n'est qu'une tentative d’anticipation, une prospective conjecturale.

Sous ces nécessaires précautions, il nous apparaît que l'on peut escompter des retombées en ce qui concerne tant la conception des codes que leurs fonctionnalités. L’impact peut être sensible à plusieurs points de vue :

  • Du point de vue de l’élaboration des codes, le système doit, à partir d’une quantité variable de textes, produire une organisation globale cohérente et complète, et l’on peut concevoir que, sans altérer la liberté d’appréciation du codificateur, le système apporte à ce dernier une assistance bénéfique en termes de productivité et de sécurité.
  • Du point de vue de l’écriture, celle du droit peut se trouver passablement transformée du fait de l’utilisation d’outils de cette nature. De même que dans un droit codifié, le rédacteur ne devrait penser les modifications réglementaires ou législatives que par rapport au code, on peut également imaginer qu’en présence d’un outil tel que celui ici envisagé, le rédacteur pourrait soit introduire pour analyse un nouveau texte ou un texte modifié, soit modifier directement la base de connaissances et testerait l’impact des modifications textuelles sur l’architecture et la cohérence des normes existantes.
  • Du point de vue de l’interrogation, on peut envisager que sur la base d’une question formulée en langage naturel, le système produise sous forme textuelle le droit applicable assorti des références textuelles. Il s’agit d’une perspective de développement qui demandera des mises au point qui ne sont pas sans analogie avec les techniques mises en œuvre par certains logiciels d’importation de site Internet où l’utilisateur doit préciser le nombre de niveaux de dépendance qu’il souhaite inclure dans sa recherche. Toutefois, pour une question fermée, la réponse devrait tout simplement être la réponse à la question.
  • Du point de vue de la résolution de problème, il est possible d’envisager une modélisation de décisions juridictionnelles types qui permettraient de traiter de façon quasi automatique au moins 90 % des recours qui ne soulèvent pas de question de principe nécessitant une interprétation créatrice du juge. Le mot « automatisation » ne doit pas inquiéter : il ne s’agit pas de remplacer le juge, mais de lui préparer le travail en respectant bien entendu sa pleine liberté d’appréciation et le principe de l’examen particulier de chaque affaire qui s’impose tant à l’administration qu’au juge. On peut imaginer que l’outil, mis entre les mains des justiciables ou de conseils juridiques, pourrait simuler les décisions de justice, mieux qu’aucun recueil de jurisprudence existant ne le ferait, et pourrait peut-être constituer un moyen de prévention des litiges.
  • Du point de vue de la décision administrative, on est en droit de penser que dans les administrations pourvues d’un service juridique, l’outil envisagé pourrait améliorer sensiblement la productivité. Dans les administrations non pourvues d’un service juridique étoffé, l’outil pourrait offrir le moyen aux petites cellules juridiques sans effectifs de remplir plus efficacement leur rôle de conseil préalable à la décision.
  • Du point de vue de la formation, on peut imaginer que le même instrument mis à la disposition des professeurs et des étudiants pourrait constituer un puissant instrument de formation.

Ceci est présentement de la prospective, mais nous pensons qu’il n’existe aucun obstacle scientifique ou philosophique à ce que cette prospective se réalise. Dans ce contexte, il est évident qu’il ne s’agit plus tellement d’envisager l’impact de ces développements sur la codification. En réalité, c’est d’un bouleversement des conditions même de l’accessibilité au droit qu’il s’agit, et de l’apparition d’une codification électronique, navigationnelle et hypertextuelle, qui n’aura plus qu’un lointain rapport avec la codification manuelle que nous connaissons.

Top