La pensée aveugle

 

Philippe Codognet *

 

L’usage de la technologie en art a clairement de lointaines origines, mais il faut reconnaître que ce domaine a été dynamisé depuis un demi-siècle par l’arrivée de l’électronique et de l’ordinateur, devenu la Machine Universelle de nos sociétés post-spectaculaires, omniprésente et presque omnipotente, réifiant ainsi le rêve de Leibniz d’une lingua characteristica (binaire) qui serait aussi un calculus ratiocinator. Les artistes se sont donc emparés de cet outil depuis plus de 40 ans, poursuivant ainsi la fascination machinique des débuts du modernismes (futurisme, suprématisme, …). Mais l’« art technologique » et l’« art numérique », ont emprunté un chemin de traverse à l’écart des voies classiques de l’art contemporain, se rapprochant plus de certaines industries technologiques que des institutions muséales contemporaines. Ainsi, le monde de l’art a toujours regardé avec méfiance les machines et la technologie, associées dans un découplage cartésien classique à un corps sans âme à l’opposé de la sphère intellectuelle à laquelle l’artiste est intégré depuis Hegel.

Peut-on donc actuellement tenter de définir le champ de l’art numérique et tenter de mener une réflexion sur sa pertinence critique, dans une société où la technologie devient hégémonique jusqu’au tréfonds du corps et de la biologie ? Une nouvelle société élevée à l’ombre des consoles de jeux vidéos et au biberon des téléphones portables est déjà en place et à même d’alimenter le discours de l’art contemporain. Peut être alors est il possible que, dans une stratégie virale où l’hôte devient le complice de l’intrus, l’utilisation des nouvelles technologies puissent servir l’art contemporain dans son rôle d’observateur critique et de transformateur actif de la société.

Information, données, stockage, mémoire ...  

« Life is a data gas I breathe, wireless »[1].

Que dire donc du brouillard informationnel recouvrant la planète à l’ère des réseaux et du spectacle généralisé, en temps réel et " broadcast live " sur Internet vingt-quatre heures sur vingt-quatre? Dans une société où tout devient virtuel - travail, argent, musique, art -, où la valeur d’échange d’une information n’est pas sa véracité mais le nombre de gens qui la regarde (sur un poste de télévision ou sur le Web, rien n’a changé), l’information n’a rien à voir avec le réel mais sert de carburant à un cyberespace sous perfusion en quête de sens. Et si la mémoire devient spectacle, le spectacle devient lui aussi mémoire car les théâtres du monde, personnels ou collectifs, ont de plus en plus tendance à n’être qu’une accumulation de repères consommables et consommés, signes immédiatement communicables car reconnaissables. A l’intérieur bien sûr d’une culture occidentale globalement homogène et hégémonique, les autres resteront à la porte. Les réseaux permettent sans doute une meilleure organisation, circulation et distribution de l’information par rapport aux systèmes médiatiques panoptiques des années 60 et 70, mais ils permettent surtout, en privilégiant le contenant, d’éviter de s’interroger sur le contenu, dans une démarche scientifique et technologique classique. Les sciences du vivant prennent le même chemin, celui de l’instrumentalisation et du " perfectionnement " totalisant des données et des corps.

L’ordinateur semble actuellement, en particulier avec le Web, être la parfaite machine à archiver, mais il sera bientôt remplacé par d’autres substrats de stockage et même de calcul, et le « wetware » détronera bientôt le  « hardware » comme frontière high tech.  Les composés organiques, voire même les organismes vivants, vont rapidement devenir aussi usuels et répandus  que les supports plastiques inertes des CDs ou DVDs actuels. Dans cet article, nous illustrerons cette vision par un projet récent d’utiliser des cafards comme archive parfaite, auto-reproductible et auto-préservée par duplication à l’infini… Ceci serait un exemple ultime de ce qu’on peut appeler, selon le mot de Giordano Bruno, la pensée aveugle, c'est-à-dire le fait de découpler l’interprétation des concepts (philosophiques) et le raisonnement formel, par exemple en logique ou dans une simple combinatoire syntaxique. Ceci s’inscrit dans une longue tradition qui a perduré de la philosophique médiévale jusqu’à la pensée baroque, et dont le plus fameux représentant se trouve sans doute être Leibniz et son ars combinatoria. Bien sûr ce cheminement intellectuel a pris un nouvel essor avec le développement de la logique symbolique au tournant du XXème siècle (Frege, Russel, Lowenheim, et ensuite von Neumann, Gentzen, Herbrand, Turing, Tarski, …) puis avec la mise en oeuvre  des ordinateurs après la seconde guerre mondiale (toujours von Neumann, Turing, etc). Mais cette pensée aveugle, après avoir conquis le monde inerte des substrats siliconés (microprocesseurs) et des fibres optiques  (réseaux de communications), s’attaque maintenant au monde vivant, tant du point de vue de l’archivage (cf. le projet des « cafards » de Jaron Lanier, que nous décrirons plus loin)  que de celui du calcul (cf. les ordinateurs ADN).

 

I.                  La mémoire dans la chair

 

L’utilisation des images pour représenter et synthétiser l’information a une longue tradition dans l’histoire des idées occidentale, particulièrement dans l’antique pratique de l’art de la mémoire, un sujet d’étude qui remonte à l’Antiquité grecque et qui a perduré jusqu’à  l’époque Baroque[2]. L’art de la mémoire est une curiosité de l’histoire des idées dont l’origine remonte au moins à Ciceron. Cette discipline était très prisée des études classiques de l’époque médiévale à la Renaissance, avant de céder peu à peu du terrain à la nouvelle philosophie des Lumières. L’ars memorandi était extrêmement important à une époque où les livres et les supports d’écriture étaient rares et où la manière la plus simple de copier un livre était peut être tout simplement de l’apprendre par cœur… Leibniz lui-même, qui incarne d’une façon exemplaire le « génie baroque », écrivit un manuscrit (non publié) sur l’ars memoriae ; il considérait que le champ du savoir, c’est à dire « la connaissance parfaite des principes de toutes les sciences et des arts qui s’y appliquent », se décomposaient en trois parties également importantes : l’art de raisonner (la logique), l’art d’inventer (la combinatoire) et l’art de la mémoire (la mnémonique).

L’hypothèse de base de l’art de la mémoire, dont on peut bien évidemment trouver l’origine chez Platon, est que les images " parlent " plus directement à l’âme et sont donc les meilleurs vecteurs de la mémorisation. Le but est donc de développer les facultés mnémoniques à travers la mise en place d’un système complexe d’images mentales placées dans des architectures imaginaires (imagines et loci), comme des statues dans un palais. Selon les termes de Cicéron dans de Oratore , « Il s’agit d’utiliser les lieux et les images comme, respectivement, des tablettes d’argile et des lettres écrites dessus ». Il est ainsi recommandé d’utiliser comme lieux des endroit connus, comme une ville ou une maison dans laquelle on a l’habitude de se déplacer, et d’organiser les images de telle sorte que l’agencement spatial (des images) corresponde à l’agencement causal ou temporel des concepts à se remémorer.

 

Robert Fludd, utriusque cosmi (…) historia, Londres, 1619.

Cosmas Rossellius, Thesaurus Artificiosae Memoriae, Venice, 1579.


 

Cette tentative d’organiser la mémoire comme un " théâtre du monde " trouve ses plus belles réalisations dans les systèmes de Giordano Bruno, de Tommaso Campanella (la cité du soleil) dans le célèbre théâtre de la mémoire de Giulio Camillo Delminio ou dans la tentative de « temple de la peinture » de Paolo Lomazzo .

Une architecture mnémonique évidente est tout simplement son propre corps, que l’on peut utiliser comme archive mémorielle personnelle, et plusieurs traités médiévaux décrivent ces techniques. Ainsi, le Plutosofia  de Filippo Gesualdo (1592) montre un corps décomposé en quarante-deux loci qui sert comme modèle mnémonique ; le  Schatzbehalter der wahren Reichtümer des Heils  de Stephan Fridolin (1491), propose « la main comme mnémonique corporelle », celle-ci devenant alors une sorte de  « cabinet de merveilles » (une image traditionnellement utilisée dans l’art de la mémoire)[3]. La main était également utilisée à l’époque médiévale pour mémoriser la musique et les chants, les notes étant associées à certaines positions de la main. Guido d’Arezzo, à qui l’on attribue l’invention de la notation musicale moderne, avait également mis au point  un système utilisant les différentes phalanges des doigts de la main, la célèbre « main guidonienne ». On trouve de nombreuses descriptions de cette méthode entre le XIIème  et le XVIIème siècle, preuve de la popularité de celle-ci[4].

 

 

Les  42 « lieux de mémoire » corporels

Filippo Gesualdo,  Plutosofia, 1592.

 

La main musicale de  Guido d’Arezzo

 

 

 

La main peut être utilisée pour mémoriser non seulement la musique mais aussi les mots: un alphabet manuel utilisant les différentes positions de la main et des doigts a été mis au point par Cosimo Rosselli dans son thesaurus artificiosae memoriae (1579), et un autre utilisant les phalanges et des zones précises de la paume de la main fut ensuite créé par George Dalgarno[5], plus connu pour son ars signorum (1661), l’un des premiers essais au XVIIème siècle sur la création d’une langue universelle.

Mais utiliser un système mnémonique fixe comme le corps ou la main n’est pas assez flexible pour l’art de la mémoire ... Les traités médiévaux et renaissants sur l’ ars memorandi avaient pour but de permettre à chacun de définir son propre système de mémoire artificielle en utilisant une architecture personnelle et des images choisies, qui devaient pourtant présenter certaines caractéristiques particulières. Pour être facilement mémorisées, les images doivent être saisissantes et incongrues et l’utilisation d’animaux, en particulier rares ou tout simplement imaginaires, est très recommandée. Thomas Bradwardine, dans son De memoria artificiali (vers 1335), décrit ainsi une image très particulière destinée à se souvenir des douze signes du zodiaque: une mêlée sanglante avec un bélier attaquant un bœuf, une femme donnant naissance à deux jumeaux qui jouent avec un horrible crabe, etc[6]. Images étranges et fantastiques, violentes ou érotiques, car tout simplement plus faciles à graver dans son souvenir ... Une autre façon de créer des images mnémoniques est de construire des créatures chimériques, dont les différentes parties font référence aux objets ou aux idées à mémoriser. Ars Memorandi est un livre imprimé en 1502 à Pforzheim[7] constitué d’un texte latin de Peter von Rosenheim (Roseum memoriale, aide à l’étude de la bible écrite vers 1420/30) et d’étonnantes gravures représentant des images mentales. Par exemple la « première image de Jean » montre un oiseau à trois têtes (faisant référence à la Trinité) jouant de la mandoline (référence aux noces de Cana) qui comporte différents autres attributs correspondant à des passages précis de l’Evangile, chacun affublé d’un chiffre opérant comme une note indexicale via à vis du texte apparaissant sur la page opposée. De manière similaire, l’usage des bestiaires comme source d’images mémorielles était courant à l’époque médiévale[8], même si ces textes ont été initialement diffusés sous forme purement textuelle et non illustrée.

Ainsi les images d’animaux et de chimères sont des aides à la mémorisation depuis l’ars memorandi. Mais peut-on, à l’époque actuelle où toute chose trouve sa réification immédiate, utiliser de véritables animaux pour archiver notre savoir ? Peut-on concevoir quelque créature modifiée en archive vivante ?

 

II.               La mémoire dans les gènes

 

 

Parmi les innombrables « célébrations » du passage au troisième millénaire, le New York Times et le Musée d’Histoire Naturelle de New York ont proposé la réalisation d’une métaphorique « capsule temporelle » (New York Times Capsule) chargée de  garder - ou sauvegarder, si l’on est pessimiste - la mémoire de l’état du monde et des connaissances actuelles. Il s’agissait donc de faire un instantané de notre société en cette fin du deuxième millénaire, et de le réifier d’une manière quelconque pour le conserver intact jusqu’à l’an 3000, date à laquelle nos futurs descendants pourront ainsi découvrir cette tranche de vie momifiée. La proposition de l’architecte Espagnol Santiago Calatrava a remporté les faveurs du jury en proposant une capsule d’acier inoxydable aux formes abstraites curvilignes contenant des objets de la vie courante : téléphone portable, photos et bruits de New York, boîtes de nourriture pour chien, préservatifs, etc, ainsi que quelques éditions clés du Times. On a là une forme concrète de théâtre de la mémoire, organisé spatialement dans une unité de lieu,  lointain écho du théâtre de la mémoire de Giulio Camillo Delminio, l’un des plus fameux humanistes du XVIème siècle[9]. Cependant une autre proposition – rejetée - était conceptuellement plus intéressante et effrayante : l’idée, proposée par Jaron Lanier (personnage hors normes de l’informatique californienne, pionnier de la Réalité Virtuelle et de la Télé-présence), de numériser tous les numéros du NY Times et de les intégrer par manipulation génétique dans l’ADN des cafards new-yorkais, traduisant simplement le codage binaire informatique en un codage biologique selon les quatre bases : A, T, G, C (Adenine, Thymine, Guanine and Cytosine).

 

Les archives cafardesques de Jaron Lanier, 1999.

 

Pour citer Jaron Lanier, qui a travaillé sur ce projet en collaboration avec un biologiste de Columbia University à New York : «  une fois l’archive sélectionnée, elle est enregistrée sur l’ordinateur et codée par des paires de bases de l’ADN. Les séquences sont alors synthétisée de manière conventionnelles. Ensuite l’ADN archive est introduit dans l’ADN intron du cafards par injection dans les œufs ». On sait qu’il y a de larges portions de l’ADN qui semblent inutilisés (les introns) mais qui sont néanmoins reproduites de génération en génération ; pourquoi donc ne pas utiliser l’ADN comme une immense bibliothèque de Babel, en perpétuelle duplication et régénération ? De manière assez surprenante, ou peut être pas en fait, ce projet est tout à fait réalisable avec les bio-technologies d’aujourd’hui et on peut même en donner un budget précis : les entreprises bio-tech facturent habituellement un demi-dollar par paire de bases pour la synthèse de séquences d’ADN.  Une lettre codée dans l’ordinateur en ASCII sur 8 bits nécessite donc 4 paires de bases ADN et coûte donc deux dollars. Une page, environ 2000 dollars … De combien de savoir peut-on donc gaver un cafard ? Jaron Lanier a la réponse : « l’intron d’un seul cafard peut facilement contenir tous les articles, lettres et autres textes d’une année entière du Times. (…) le cafard a plus d’un milliard de bases ADN dans ses introns, ce qui représente une capacité d’environ 250 millions de lettres. C’est beaucoup plus qu’il n’en faut pour l’archivage, même avec de la redondance ». Rappelons que le codage des gènes n’occupe que 3% de l’ADN, le reste étant des introns, ou « ADN poubelle ».  On peut cependant considérer une telle archive comme instable car elle sera écrite et réécrite tel un nano-palimpseste à chaque génération. Il y a donc un risque potentiel de mutation qui rendrait l’archive illisible, mais ce risque est en fait très faible, car « les gènes du cafards sont très stables et n’ont pas changé de manière substantielle depuis plusieurs millions d’années », et aussi car il est facile d’avoir plusieurs copies que l’on pourra comparer pour retrouver le texte original.  Les bibliothèques médiévales n’opéraient finalement pas de manière très différente, et les moines copistes étaient constamment en train de retranscrire les textes anciens pour les préserver. Les cafards sont des créatures très résistantes (plus que les moines ?) qui survivent à toutes les catastrophes naturelles et qui survivront sans doute aux cataclysmes humains potentiels tels une guerre nucléaire ou biologique. « Inexorablement , dans quatorze années environ, le cafard/archive deviendra si endémique  qu’il sera une caractéristique omniprésente et permanente de l’île de Manhattan », conclue Jaron Lanier. Ainsi les cafards seront les blocs de base d’une archive virtuellement infinie, distribuée et auto-répliquante ... Le rêve de tout bibliothécaire ! Une sphère dont le centre est partout et la circonférence nulle part, pour paraphraser Nicolas de Cuse, qui concevait dans son livre De docta ignorantia en 1440 un univers infini et en constante expansion, mettant à bas l’antique univers aristotélicien.  Ainsi ces OGM de la mémoire, multiplié en quelques siècles en des millions de copies (presque) parfaites, seraient des réceptacles quasi-indestructibles de la mémoire de l’humanité. Des cafards plus savants que le plus éduqué des hommes mais incapable de décoder et d’avoir accès à cet immense savoir, le paradoxe est cinglant. Mais ces machines à mémoire, célibataires des connaissances qu’elles transportent, marquées au fer rouge des manipulations génétiques, ADN cisaillé et raccommodé par des Frankenstein cotés à Wall Street, peuvent-elles être le futur de notre mémoire ? Ces cafards du savoir, nourris des déchets de notre consommation et du surplus de notre spectacle, mémoires de masse à la recherche d’une interface improbable, ne disent-ils pas en eux-mêmes, l’état de notre société en ce début de troisième millénaire, exhibant ainsi leur propre objet ?

 

III.           La notation binaire

 

Une question cependant ... A-t-on maintenant, avec le code génétique la langue universelle ultime ? Cette quête d’une langue parfaite ou universelle, célèbre dans les utopies du XVIIème siècle, trouve ses origines à l’époque médiévale[10]. Le succès de l’ordinateur comme machine universelle pour le traitement de l’information et les espoirs de Lanier autour de l’ADN comme machine universelle pour le stockage l’information, font tous deux l’hypothèse d’une langue universelle dans laquelle différents types d’information pourront être encodés et traités de manière complètement mécanique. La théorie de l’information, proposée par Claude Shannon il y a plus d’un demi-siècle[11], peut être vue comme une sorte de sémiotique idéale : un algorithme de codage/décodage représente le processus d’interprétation chargé d’analyser quelque signifiant (l’information transmise) en un signifié propre (son contenu) qui est ensuite passé à une étape ultérieure de traitement. Mais la mécanisation de ce processus dans l’ordinateur est grandement facilitée par l’existence d’un langage universel dans lequel toute information est encodable : la notation binaire, inventée par G. W. Leibniz.  Il a publié sa « découverte » en 1703[12], initiant ainsi des recherches sur les systèmes numériques non décimaux, mais l’idée de Leibniz date en fait de 1697. Elle est exprimée clairement dans une lettre qu’il écrivit au Duc de Brunswick, dans laquelle il détaille le dessin d’un médaillon en l’honneur du Duc. La notion binaire  est présentée comme imago creationis, c’est à dire à l’image de la création du monde car tous les chiffres peuvent être engendrés par le Rien et l’Unique (Dieu) unus ex nihilo  omnia. Leibniz a patienté quelques années avant de publier sa découverte dans l’attente d’une application intéressante : ce fut chose faite lorsque le père Bouvet, un missionnaire jésuite revenant de Chine, lui communiqua  en 1700 sa perplexité face aux figures Fu-Hi, les hexagrammes du I-Ching, le très ancient Livres des Transformations divinatoire chinois.

Deux siècles et demi plus tard, la notation binaire trouva une autre application, autrement plus glorieuse et à l’impact bien plus large : les ordinateurs numériques… Ceci concrétisa enfin le rêve de Leibniz d’une langue universelle qui soit à la fois lingua characteristica, permettant la description “parfaite” du savoir en mettant à nu la “caractéristique réelle” des concepts et des objets, et calculus ratiocinator, mettant en œuvre la mécanisation du raisonnement.

 

 

Le médaillon de Leibniz pour le duc de  Brunswick

(Thèse de Johann Bernard Wiedeburg von Jena, 1718)

 

 

IV. Cogitatio coeca – la pensée aveugle

 

Mais abordons maintenant une autre question relative à ce processus de codage/décodage et à cette utopie de langue universelle. En effet, la caractéristique la plus révolutionnaire du projet de Jaron Lanier est de considérer l’ADN poubelle (les introns) comme un substrat d’archivable ouvert, capable de recevoir toute information préalablement traduite d’abord par binarisation puis par codage ADN avec les bases ATGC.

On considère ainsi l’ADN comme un pur système symbolique, complètement dissocié de sa fonction essentielle de reproduction du matériel génétique et donc de la vie. Ainsi, même si utiliser un organisme vivant pour archiver des journaux peut sembler incongru, ceci est simplement basé sur l’utilisation des introns de l’ADN, supposés inutiles. L’idée d’effectuer, dans un système de symboles donné, des opérations sur les objets symboliques de manière purement syntaxique, sans référence au sens sémantique ou au modus operandi de ces objets a été proposé par Leibniz comme une source potentiellement importante de découverte scientifique, et appelé de manière assez explicite cogitatio coeca, c'est-à-dire « pensée aveugle »[13]. Le processus de raisonnement opère ainsi sur des signes atomique (qui ne sont pas eux-mêmes interprétés), à l’instar des mathématiques : par exemple lorsque la résolution d’un problème est conduite par des opérations sur des variables symboliques et des termes arithmétiques, sans avoir aucune idée de ce à quoi ces variables font référence[14]. Leibniz utilisera donc ce paradigme en mathématique, en considérant la combinatoire comme ars inventendi, et aussi en posant les fondations de la sémiotique moderne. Mais les origines de cette conception sont à chercher dans les travaux visionnaires du moine franciscain Ramon Llull, qui vécu au XIIème siècle et qui fut le premier à envisager un système combinatoire et à l’utiliser comme langue universelle.

Raymond Lull, le doctor illuminatus de l’île de Majorque, vécu approximativement entre 1232 et 1316 et il passa la majeure partie de sa vie, exceptionnellement longue et riche en péripéties, à développer et à populariser son curieux et révolutionnaire Ars Magna, un système universel de connaissance et de philosophie. Dans un de ses poèmes les plus fameux, Desconort, il écrit « pour résoudre les questions aucun art n’est meilleur, de même que pour éliminer les erreurs, par raison naturelle ». Il fit la promotion de son art partout en Europe, et même jusqu’à Constantinople auprès du Sultan, qui le récompensa en le jetant en prison, où il finit ses jours.  Entré chez les franciscains depuis la « révélation » de son art au sommet du Mont Rand[15], Ramon Lull se trouvait à Majorque à la croisée de trois cultures, Christianisme, Judaisme et Islam, dont il subit les influences conjuguées. Le succès de son art au XIVème et XVème siècles n’a d’écho que le mépris dont il a fait l’objet depuis l’age classique. Littré dans son Histoire littéraire de France (1885) considère que “l’art lullien a été depuis longtemps relégué au grenier poussiéreux   des spéculations sans fondements”.     Ce travail est cependant essentiel pour notre propos, car c’est le premier système qui utilise la combinatoire comme base philosophique et qui considère la puissance de combinaison exhaustive comme tentative pour singer l’omnipotente de Dieu et approcher la vérité[16].  Le système de Raymond Lull est basé sur neuf entités, qui sont les briques de base pour construire les connaissances. Il assigne ainsi les lettres de B à E à ces entités, gardant la lettre A pour faire référence à Dieu. Chacun des ces signes abstraits peut être vu de six points de vue différents, et peut donc avoir plus ou moins six significations. Il considère d’abord neufs « principes absolus » ou « divinités » associées aux lettres. Mais les lettres ont aussi des significations secondes et troisièmes et de manière plus surprenante encore, peuvent aussi être utilisées comme questions, rendant ce système compact assez abscons... Tous ceci est résumé dans une tabula generalis, un tableau à double entrée avec neuf lignes (les lettres) et six colonnes (les différentes utilisations). Quatre figures fondamentales illustrent ainsi l’ ars magna : la seconde est une roue dont les rayons représentent les combinaisons deux à deux des différentes lettres, ce qui est répété de manière plus explicite dans la troisième figure. La quatrième est sans doute la plus connue, elle est constituée de trois cercles concentriques qui permettent, en les tournant, d’engendrer toutes les combinaisons possibles de trois lettres.

 

 

Deux figures combinatoires de l’Ars magna de Raymond Lull

 

Ce qui est fondamentalement nouveau dans ce système est la conception d’une pure combinatoire de signes (les lettres) séparés de leurs sens propre et sur lequel opère un processus aveugle et en quelque sorte mécanique. La vrai signification  des lettres est sans importance à la fois pour le mouvement des cercles concentriques et pour la combinatoire ainsi engendrée : n’importe quel résultat syntaxiquement valide peut être calculé.  Ce glissement des concepts théologiques et philosophiques vers un pur jeu combinatoire est une étape clé dans la mécanisation de la connaissance, qui a fasciné de nombreux penseurs dans les siècles suivants, si l’on en juge par l’abondance des traités d’inspiration lullienne qui ont été écrit jusqu’au XVIIème siècle. Une des figures majeures de cette tradition est le « philosophe de l’infini » Giordano Bruno (1548 – 1600), dont les tendances hétérodoxes et hermétiques l’on poussé à complexifier à l’extrême la combinatoire universelle de Raymond Llull[17]. Dans son livre De umbris idearum (1582), il décrit sept systèmes de complexité croissante basés sur des roues concentriques mobiles décomposées en 150 secteurs. L’importance qu’il donne à la forme syntaxique des signes sur leur sémantique est clairement formulée dans le De lampade combinatoria lulliana (1586) : « on ne doit pas prêter attention aux propriétés des termes mais uniquement au fait qu’ils définissent un ordre, une texture, une architecture »[18].

Ces systèmes lulliens sont bien sûr liés à la combinatoire présente dans la Cabbale juive[19], qui a de manière évidente influence Bruno à travers l’oeuvre de Giovanni Pico della Mirandola et des autres philosophes de la « Cabbale Chrétienne », comme Guillaume Postel qui décrit un système lullien utilisant des lettres hébraïques dans son Livre de la formation (1560). L’utilisation de techniques combinatoires est à l’origine de plusieurs pratiques de la Cabbale, ceci étant particulièrement évident dans la description assez ésotérique de la Cabbale extatique d’Abraham Abulafia (1240-1291)[20] : « Et commence par combiner ce nom, YHWH, au début tout seul, et examine ensuite toutes ses combinaisons et tourne-le comme une roue et retourne-le, de face et de dos comme un rouleau, et ne le laisse pas en repos, mais quand tu  vois sa substance se renforcer du fait de son mouvement, du fait de la peur de confusion dans ton imagination et du tourment de tes pensées, et quand tu veux le laisser en repos, reprend-le et questionne–le jusqu’à obtenir des mots de sagesse, ne l’abandonne pas. Après, pars du deuxième [nom], c'est-à-dire Adonay (...), joins et combine deux à deux (...), [il introduit alors deux autres noms de dieux] et combine alors quatre à quatre (...). »

Leibniz, qui a écrit à l’age de dix-huit an en 1666 un Dissertatio de arte combinatoria, sera en fait celui qui convertira cette tradition lullienne philosophique et mystique en un pur jeu de combinatoire mathématique et l’introduira ainsi dans le champs de la science théorique.

 

IV.            Leibniz et la logique

 

Leibniz est célèbre tout autant pour ses travaux en mathématique (par exemple l’invention du calcul infinitésimal) qu’en philosophie (cf. la monadologie). Parmi les nombreux écrits de Leibniz, il n’y a cependant pas un unique opus magnum qui pourrait être utilisé comme point d’entrée dans sa pensée très particulière. Ses idées sont dispersées dans ses multiples œuvres qui englobent, en plus des sujets précédents la législation et la jurisprudence, la combinatoire et la logique, la linguistique comparative et la grammatologie, l’encyclopédie et la philosophie des science, la langue universelle et la “characteristique”, l’art de la mémoire et la cryptographie, et bien d’autres encore. Mais loin d’être un esprit confus et disparate, Leibniz avait une philosophie globale cohérente ; on peut par exemple considérer ses travaux sur la logique et la métaphysique comme deux facettes d’une même pensée. Comme le dit Louis Couturat, « et il n’y a même aucun doute que son invention la plus fameuse, le calcul infinitesimal, soit le fruit de sa recherche constante pour des nouveaux formalismes généraux et que, inversement, son invention conforta son opinion dans l’importance capitale pour les sciences déductives d’avoir une bonne caractéristique »[21]. La pensée de Leibniz ne peut pas être capturée par la césure dialectique de Foucault entre un age pré-classique (la Renaissance néoplationicienne) et l’age classique (Descartes et les Lumières)[22]. Leibniz appartient historiquement au siècle des lumières, mais il a été fortement influencé par la tradition pré-classique de Raymond Lull et Giordano Bruno. Il était également très en avance sur son temps et peut être considéré un peu abusivement comme “moderne” : il est par exemple le fondateur de la logique symbolique [23] et de la sémiologie [24]. Mais l’une des obsessions de Leibniz resta cependant la définition d’une langue parfaite, la “Caractéristique Universelle”, un nouveau langage qui parlerait de l’essence des choses et des pensées.  Leibniz distinguait ainsi deux manières de voir la logique: la logique comme lingua characteristica et la logique comme calculus ratiocinator. Van Heijenoort[25] réutilisa la distinction de Leibniz en contrastant deux lignes de pensée distinctes dans la logique moderne : la tradition de la « langue universelle » de Frege, Russell et du premier Wittgenstein, et celle du « calcul » de Boole, Schröder et Löwenheim. Cette seconde ligne de pensée a été liée par  J. Hintikka[26] au développement de la théorie des modèles en logique[27], alors que les implications en philosophie du langage de cette distinction ont été développés par M. Kusch[28]. L’idée de base est que la tradition “algébrique” considère les formules logiques dans l’absolu, sans référence à un univers de discours particulier, alors que l’autre considère le domaine de la logique comme étant unique et en rapport direct avec la “réalité”. Ainsi ces mots célèbres de Russel : « la logique est en prise avec la réalité tout autant que la zoologie, bien que d’une manière abstraite et générale.». Pour van Heijenoort,  « on ne peut même pas dire que [Frege] se restreint à un seul univers de discours. Son univers est l’univers ». Les formules logiques dénotent donc le monde réel et ne sont pas simplement des signes symboliques qui peuvent être interprétés dans différents « mondes possibles ». En outre, poursuit van Heijenoort, « une autre conséquence importante de l’universalité de la logique et que rien ne peut, ou ne doit, être dit en dehors du système ». A peu près contemporaine de celle de Russel, l’approche de Schröder et de sa suite (« l’algèbre de la logique ») proposera l’interprétation des relations logiques dans différents domaines de discours. Ceci ouvrit, pour Vaught et Hintikka, la voie à la théorie des modèles et aux recherches méta-logiques car celles-ci ne peuvent apparaître que si l’on considère plusieurs domaines d’interprétation et que l’on cherche à les relier. Le grand mathématicien allemand Hilbert faisait lui aussi partit de cette seconde école de pensée : « le système axiomatique de la géométrie élémentaire présenté [dans Fondations de la géométrie, 1899] était conçu par Hilbert dans le plus pur schéma de la théorie des modèles. Non seulement Hilbert dit-il explicitement qu’il ne fait aucune hypothèse sur les entités qu’il appelle “points”, “lignes” et “plans”,  mais il dit aussi clairement que n’importe quelle structure d’objets qui satisfait les axiomes peut être qualifiée de géométrie »[29]. Ceci est résumé brillamment par les propres mots de Hilbert : « quand je parle de points, lignes et plans, je pourrais tout autant parler de chaises, tables et de verres à bière». Ainsi pour de nombreux mathématiciens à l’aube de l’age moderne, la logique est la fille de la cogitatio coeca, et sa puissance provient de sa capacité à manipuler de manière aveugle les symboles pour produire de nouveaux résultats qui seront ensuite réinterprétés et décodés pour être rendus intelligibles. Comme un certain nombre de ces logiciens du début du XXème siècle deviendront les pionniers de l’informatique dans le courant des années 40, ils réifieront ces concepts dans la conception des ordinateurs en mettant l’accent sur la capacité de manipuler de manière aveugle toutes sortes de symboles abstraits. Ainsi, tout à la fois Alan Turing, avec le concept de la “Machine de Turing” (un modèle théorique universel de calcul qui a d’abord été proposer dans le cadre de la formalisation logique de l’arithmétique),  et John Von Neumann, auteur de la célèbre « architecture de Von Neumann » (l’idée d’une unité de mémoire qui contient programme et données et d’une unité de calcul séparée en charge de l’exécution du programme), sont à la source de la principale révolution technologique de la seconde moitié du XXème siècle : les ordinateurs[30]. Et bien que le premier ordinateur, l’ENIAC de 1946, utilisât une notation hybride entre binaire et décimale, l’application totale de la notation binaire sera généralisée dans les années suivantes, après la publication du rapport Burk-Goldstine-Von Neuman en 1947 :

« un point supplémentaire à mettre en avant est celui-ci : une part importante de la machine n’est pas arithmétique mais de nature logique. La logique, etant un système oui-non, est fondamentalement binaire. De ce fait, une adaptation binaire des organes arithmétiques contribuerait de manière très significative à une machine plus homogène, qui pourrait être mieux intégrée et plus efficace. »[31]

Ce rapport définît ce qu’on appellera plus tard  l’architecture IAS, qui sera la base de la plupart des ordinateurs des années 50, qui furent en fait les premières machines complètement binaires [32].

 

 

V.               De l’ordinateur à la biologie

 

 Mais à la même époque une autre révolution était aussi dans les limbes : 1953 est en effet la date de la découverte de la structure en double hélice de l’ADN par James Watson et Francis Crick. Selon l’étude de Lily Kay[33], la génétique est la fille illégitime de l’informatique et de la cybernétique : les concepts scientifiques mis en avant à la fin des années 40 avec le développement de la théorie de l’information par Claude Shannon et de la cybernétique par Norbert Wiener, au cœur du développement des ordinateurs, ont changé de manière fondamentale la biologie moléculaire et l’ont fait entrer à l’age de l’information. L’ADN a ainsi été considéré comme un « mot », c'est-à-dire une suite de symboles pris dans un certain alphabet constitué des quatre bases A, T, G, C.  Et le problème de comprendre comment l’ADN pouvait produire les vingt aminoacides  à la base de la vie est devenu un problème de chiffrage/déchiffrage : il fallait, comme pour Enigma lors de la deuxième guerre mondiale, “casser” le code génétique. On organisa ainsi des symposiums multidisciplinaire “Information Theory in Biology”, et les modèles de la théorie de l’information furent utilisés par de nombreux chercheurs en biologie.  Mais le code résistât jusqu’en 1961 lorsque Marshall Nirenberg (nobélisé par la suite, tout comme Crick et Watson) montra que la séquence TTT codait la Phenylalamine, l’un des vingt amnoacides. Il fallu ensuite plusieurs années avant que le code génétique ne révèle tous ses secrets ; ou en tous cas, si ce n’est tous, suffisamment pour ouvrir la voie au développement des biotechnologies telles que nous les connaissons aujourd’hui.

 

Il est intéressant de détailler ce codage des aminoacides dans l’ADN par ces « mots » de trois lettres appelés codons, car c’est un bon exemple pour apprécier l’impact des concepts introduits par Shannon dans le domaine de la biologie moléculaire [34]. Considérons donc l’ensemble des aminoacides comme un alphabet de 20 lettres qui doivent être codés par des mots (séquences de lettres) formés sur un autre alphabet comportant 4 lettres (A,T,G,C). Pour coder 20 éléments distincts, on ne peut pas utiliser simplement des mots d’une longueur de 2 lettres (car on n’obtient que 4x4=16 éléments) ; 3 lettres doivent donc être utilisées. Mais ces triplets peuvent alors coder 64 éléments différents, ce qui veut dire que le code sera redondant, plusieurs mots désignant le même élément encodé. Shannon a introduit la notion d’entropie pour mesurer le degré d’incertitude de l’information, celle-ci étant calculée à partir de la distribution de probabilité des valeurs que cette information peut prendre. Si nous considérons que nos 20 aminoacides apparaissent avec la même probabilité, l’entropie de notre “source d’information” (l’ensemble des aminoacides) est égale à :

H = log2 (20) = 4.322.

Cependant les aminoacides ne sont pas présents de manière équitable dans la nature, leur abondance respective n’est pas uniformément 5% mais varie de 1% à 10%. En recalculant l’entropie H avec les valeurs réelles, on obtient une valeur de 4.21, pas très éloignée de la première approximation. Le théorème sur le codage sans bruit de Shannon indique que la longueur d’un code optimal pour cet ensemble de vingt symboles en utilisant un alphabet de quatre lettres (A,T,G,C) est comprise entre H/log2(4) et H/log2(4) + 1, c'est-à-dire entre 2,10 et 3,10. Donc avec un code à trois lettres (les codons) nous avons un code optimal. Un autre concept important de la théorie de l’information est qu’une erreur peut se produire lors de la transmission d’une information entre l’émetteur et le récepteur à travers un canal de communication (possiblement bruité). Codage et décodage doivent permettre si possible le rattrapage d’erreurs, par exemple en utilisant un code redondant dans lequel les éléments importants apparaissent plusieurs fois. Ainsi dans notre code ADN, l’aminoacide Arginine (ARG) est codée par 6 codons : CGA, CGC, CGG, CGT, AGA, AGG. Donc n’importe quel triplet de la forme CGX, où X est une valeur inconnue (par exemple à cause d’une erreur), représente l’Arginine. En regardant le code ADN de plus près, on constate que chacun des 20 aminoacide est code par un, deux, trois, quatre ou six  codons de trois lettres (pour un total de 64 codons), et que les aminoacides les plus abondants sont les plus redondants.

 

Le fait que les chercheurs en biologie moléculaire étaient convaincus de découvrir la langue universelle du vivant est évident dans leurs propres écrits. Le biologiste français Jacques Monod, prix Nobel en 1965 et champion de l’approche cybernétique en biologie moléculaire (il proposa par exemple les modèles de “Cybernétique Enzymatique” et de “gène informateur”) dit : « La surprise, c’est que la spécificité génétique soit écrite, non avec des idéogrammes comme en chinois, mais avec un alphabet comme en français, ou plutôt en Morse.[35] » Plusieurs biologistes de la fin des années 60 ont en effet mis à jour la relation entre les caractères chinois du I-Ching (64 hexagrammes, chacun composé de 3 digrammes, c’est à dire de 3 couples de symboles binaires) et le codage des aminoacides par trois bases dans le code génétique  (les quatre bases étant codées par deux nombres binaires)[36]. Retour à Leibniz donc, qui utilisa dans son article fondateur la notation binaire pour expliquer le I-Ching ...

Mais lire l’ADN et le déchifrer n’était pas suffisant. David Jackson, un champion des biotechnologies déclara : « pour maîtriser complètement une langue, on doit pouvoir lire, écrire, copier et éditer dans cette langue. Les équivalents fonctionnels de ces compétences sont maintenant intégrées aux technologies qui utilisent le langage de l’ADN[37] ».

Lui ne cherchait pas la langue universelle, mais le traitement de texte universel !

Certains artistes contemporains ont pris semble-t-il ces propos au sérieux. Les oeuvres Genesis, GFP Bunny, the 8th day et Move 36 de Eduardo Kac[38] (artiste brésilien vivant à Chicago) en sont exemplaires. Genesis (présentée en 1999 au festival Ars Electronica de Linz) consiste en une boîte de Petri remplie de bactéries génétiquement modifiées d’une manière proche du projet de Jaron Lanier. Un nouveau gène a été introduit dans les bactéries, qui était dérivé du verset de la Bible: « Que l'homme domine les poissons de la mer, les oiseaux du ciel et tous les animaux qui rampent sur la terre. » Cette phrase a été traduite en Morse et puis convertie en paire de bases de l’ADN. Présentées sous lumière ultraviolet, les bactéries se reproduisent et mutent, en modifiant le substrat signifiant du verset de la Bible, qui peut ensuite être déchiffrée à rebours dans l’alphabet latin....  

L’étape suivante pour Kac sera GFP Bunny (créé en 2000, mais jamais exposé) : un lapin albinos dont l’ADN modifié contient un gène fluorescent supplémentaire hérité d’une méduse (GFP veut dire Green Fluorescent Protein). Ce travail a été produit par un laboratoire français (l’INRA) avant que l’artiste ne se l’approprie. Mais peut être demain chacun sera-t-il capable d’utiliser son propre home studio bio-tech pour jouer les Frankenstein du dimanche …  A-t-on ici une simple extension du champ de l’art dans le monde transgénique, réactualisant ainsi le geste de Duchamp qui ouvrit l’art au « tout-fait » (readymade) en 1913 et révolutionna l’art moderne à l’Armory Show de 1917 en proposant un urinoir comme sculpture? Mais on ne peut pas oublier le fait qu’en utilisant un processus technologique sans remettre en question son existence, on le banalise et on accepte l’hégémonie revendiquée par les alchimistes du vivant sur le bien fondé des manipulations génétiques.  Qui connaît en fait les effets réels des modifications de l’ADN des lapins, des cafards ou même des bactéries ? GFP Bunny et les cafards/archives réifient des perspectives quelque peu inquiétantes en produisant un art somme toute acceptable, voire même vaguement incongru et humoristique. L’art en general, et l’art technologique en particulier a toujours hésité entre collaboration et résistance vis-à-vis des grands systèmes de pouvoir de la société (argent, médias, politique, etc). Si l’art transgénique est controversé, c’est parce qu’il n’y a aucune réflexion sur la technologie utilisée, aucune tentative pour montrer que la fin (du monde ? de la Nature ?) justifie les moyens ... Ces travaux qui ne questionnent pas leur propre medium font en quelque sorte partie d’un dessein aveugle : l’utilisation industrielle et commerciale de la vie, l’esclavage génétique. 

 

VI.            Pensée aveugle, machine aveugle, nature aveugle

 

L’utilisation de la capacité machinique des processus naturels pour faire d’autres tâches que celles initialement programmées est un sentier lumineux des biotechnologies du troisième millénaire. La distinction naturel/artificiel est en passe de devenir obsolète[39] ... Comment classifier d’un animal modifié génétiquement pour produire de l’insuline, être vivant et usine tout à la fois ? Organisme biologique ou artefact ? Créature, chimère, machine ?

La micro-méchanique au niveau cellulaire et la nano-méchanique au niveau intra-cellulaire (ADN)  conçoivent les processus naturels comme de pures mécanismes formels. Ceci découle en droite ligne de la pensée aveugle qui, après s’être virtualisée avec les ordinateurs, se réincarne  dans le biologique au niveau le plus fin, enclenchant ainsi une nouvelle phase dans l’histoire de la manipulation symbolique abstraite.

 

du macro au nano, selon Keiichi Namba

 

Ainsi les travaux récents autour des moteurs moléculaires qui consomment ou produisent de l’ATP (l’ « énergie cellulaire »), comme par exemple ceux de Keiichi Namba à l’Université d’Osaka[40], cherchent-ils à analyser le fonctionnement de mécanismes biologiques du mouvement à l’intérieur des cellules pour définir des artefacts microscopiques, futures nano-machines  autonomes.

 

 

 

Les nano-machines du professeur Namba, Université d’Osaka.

 

A une échelle encore plus petite, les ordinateurs ADN connaissent un succès grandissant depuis les travaux pionniers d’Adleman il y a plus de dix ans [41] . L’idée de base est d’utiliser le mécanisme de combinaison de l’ADN comme machine abstraite, et d’avoir ainsi un nano-ordinateur dans un tube à essai. En fait, il s’agit plutôt d’avoir plusieurs millions d’ordinateurs en même temps, car chaque molécule devient une machine indépendante, permettant des calculs massivement parallèles ... Ainsi les travaux de Hagiya et Suyama[42] à l’Université de Tokyo tentent ainsi de définir un codage et une machine universelle, hypothétique pendant biologique de la machine de Turing.

 

 

 

 

 

L’ordinateur ADN « universel »

de Akira Suyama, Université de Tokyo.

 

La formule logique :  b  Ù  Ø b

codée par une molécule d’ADN

 

Il est intéressant de noter que Suyama donne comme premier exemple de l’« universalité » de sa machine l’encodage d’une formule logique – retour à la logique comme langue universelle, version ADN !

 

L’automate ADN de Benenson et Shapiro

 

Au Weizmann Institute, Benenson et Shapiro[43] ont récemment fait des avancées surprenantes. Shapiro, qui fut l’un des pionniers de l’utilisation de la logique du premier ordre comme langage de haut-niveau pour la programmation des ordinateurs[44], reste cependant modeste, et déclare « notre ordinateur [ADN] est programmable, mais il n’est pas universel ». Celui-ci est en effet basé sur les automates d’états finis, dont le pouvoir d’expression est strictement inférieur à celui des machines de Turing. Cependant cet ordinateur ADN calcule à 330 000 milliards d’opérations par seconde, soit 100 000 fois plus vite qu’un PC  ...

Au niveau du stockage des données, le « wetware » biologique devrait  également s’avérer plus performant que le « hardware » électronique  : on peut stocker environ un million  de gigabases par pouce carré, à comparer aux sept gigabits d’un disque dur actuel. La consommation d’énergie nécessaire aux opérations de base est également à l’avantage du biologique, celui-ci s’avérant environ 1000 fois plus efficace que l’électronique classique.

 

Nature comme langage ou Nature comme calcul ?

De la combinatoire à la logique, à l’informatique, puis à la biologie ... et retour.

Nous assistons à l’avènement de la nature aveugle, manipulant sans comprendre des systèmes devenus purement symboliques et découplés des fonctions biologiques originelles. Un mode de détournement ultime que nos amis situationnistes, pourtant si clairvoyants,  auraient été bien incapables d’imaginer ...

 

Notes



* professeur à l’Université de Paris 6,  Philippe.Codognet@lip6.fr

La majeure partie de ce texte est paru en allemand sous le titre Transgene Archive” dans Leidenschaften der Bürokratie. Kultur- und Mediengeschichte im Archiv, Kadmos Verlag, Berlin 2004.

La discussion concernant la bio-ingénierie des cafards a été initialement présentée lors d’une conférence à l’Université de Californie à Santa Barbara en février 2001, celle sur la nature aveugle à Cerisy en 2004.

 



[1]  Miss Kittin, I come.com, EMI records, 2004.

 

[2] Les références de base sur ce sujet sont : Frances Yates,  L’art de la mémoire, Gallimard, 1998 (édition originale en anglais: London, 1966), et Paolo Rossi,  clavis universalis, ed. Jerôme Millon, 1993 (edition originale en italien : Milano, 1960). Une perspective légèrement différente est proposé par  Mary Carruthers, Le livre de la mémoire, ed. Macula, 2002 (édition originale en anglais : Cambridge, 1990), qui contient des traductions intéressantes de certains traités médiévaux de mémoire artificielle.

 

[3] Ces illustrations se trouvent dans le catalogue de l’exposition Writing on Hands, Memory and Knowledge in Early Modern Europe par Claire Richter Sherman, University of Washington Press, 2000.

 

[4] Susan Forscher Weiss, The Singing Hand, in Claire Richter Sherman, op. cit.

 

[5] cf. Claire Richter Sherman, op. cit.

 

[6] voir Mary Carruthers, op. cit., Appendix B.

 

[7]  Une réédition moderne a été publiée par the Houghton Library, Harvard University, 1981.

 

[8] cf. Mary Carruthers, op. cit., chapitre 4.

 

[9] Ce théâtre est décrit précisément dans son livre: Idea del Teatro, publié à Venise en 1550.

Voir aussi : Frances Yates,  The Art of Memory,  op. cit, chapitre 7. 

 

[10] Sur ce sujet, voir par exemple  U. Eco, La recherche de la langue parfaite dans la culture européenne, Seuil, 1994, R. Pellerey, le lingue perfette nel secolo dell’utopia, Laterza, 1992, et James Knowlson, Universal Language Schemes in England and France 1600 - 1800, Toronto University Press, 1975.

 

[11] L’article fondateur de Claude Shannon est “A mathematical theory of communication”, Bell System Technical Journal, vol. 27, juillet et octobre 1948. Une réédition est parue dans : C. E. Shannon and W. Weaver, The Mathematical Theory of Communication, University of Illinois Press, 1949, et cette version est disponible sur  http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html .

 

[12]  “Explication de l’arithmétique binaire”,  Mémoires de l’Académie Royale des Sciences,  Paris, 1703.

 

[13] voir U. Eco, op.cit., chapitre 14, et  M. Dascal, La sémiologie de Leibniz, Aubier, Paris, 1978.

 

[14] cf. les méthodes algébriques de résolution d’équations.

 

[15] n’est pas doctor illuminatus qui veut ...

 

[16] vaste programme ...

 

[17] Pour une introduction aux multiples facettes de la philosophie de Girdano Bruno, voir Frances Yates, Giordano Bruno and the Hermetic Tradition, University of Chicago Press, 1964, et Frances Yates, “Lull and Bruno, in collected essays I, Routledge and Kegan Paul, London, 1982.

 

[18] Cité dans U. Eco, op. cit., chapitre 6.

 

[19] Pour une introduction générale à la Cabbale, on se réfèrera à Gershom Scholem On the Kabbalah and its symbolism, Routledge & Kegan Paul, London , 1965.

 

[20] Sur Abulafia, voir par exemple Moshe Idel, The mystical experience in Abraham Abulafia, State University of New York Press, 1988, qui contient la citation complète.

 

[21] Louis Couturat, la logique de Leibniz, Paris, 1901.

 

[22] Michel Foucault, Les mots et les choses, Paris, Seuil, 1966.

 

[23] N. Siatzhy, An History of Modern Logic from Leibniz to Peano, MIT Press, Cambridge, 1967.

 

[24] M. Dascal, La sémiologie de Leibniz, Aubier, Paris, 1978.

 

[25] J. van Heijenoort, Logic as Calculus and Logic as Language, Synthese, vol. 17 (1967), pp. 324-330.

 

[26] J. Hintikka, On the Development of the Model-Theoretical Viewpoint in Logical Theory, Synthese, vol. 77 (1988), pp. 1-36.

 

[27] R. L. Vaught, Model Theory before 1945, in Leon Henkin et al. (Eds.), proceedings of the Tarski Symposium, AMS, R. I., 1971.

 

[28] M. Kusch, Language as Calculus vs. Language as Universal Medium, Kluwer Academic Publishers, Dordrecht, 1989.

 

[29] Hintikka, op. cit.

 

[30]  Pour une histoire des débuts de l’informatique, voir W. Aspray,  John Von Neumann and the origins of Modern Computing, The MIT Press, Cambridge, USA, 1990, et Paul Ceruzzi, A History of Modern Computing, MIT Press, 1998. Le lecteur francophone préfèrera peut être P. Levy,  "l'invention de l'ordinateur", in M. Serres (Ed.), Eléments d'histoire des sciences, Bordas, Paris, 1993 pour une brève introduction.

 

[31]  A. W. Burks, H. H. Goldstine and J. von Neumann,  Preliminary Discussion of the Logical Design of an Electronic Computing Instrument,  Institute for Advanced Studies, Princeton, USA, 1947.

 

[32] Cf. W. Aspray,  op. cit.

 

[33] Lily E. Kay, Who Wrote the Book of Life ? An History of the Genetic Code, Stanford University Press, 2000.

 

[34] Voir par exemple Christoph Adami, Introduction to Artificial Life, Springer Verlag, 1998, pour une analyse détaillée.

 

[35] Cours inaugural au Collège de France, 1965. Cité dans in Kay, op. cit.

 

[36] voir Kay, op. cit.

 

[37] David Jackson, Template for an Economic Revolution, in Donald Chambers (Ed.) DNA,The Double Helix : Perspective and Prospective at Forty Years, New York Academy of Science Press, 1995.

 

[38] Pour tous les détails sur ces oeuvres, voir www.ekac.org .

 

[39] Pour une étude historique approfondie sur les tentatives pour dépasser la césure entre naturel et artificiel, voir William R. Newman, Promethean Ambitions : Alchemy and the quest to perfect Nature, University of Chicago Press, 2004.

 

[40] Cf. http://www.fbs.osaka-u.ac.jp/eng/labo/09a.html

 

[41] Cf. L. Adleman, "Molecular Computation of Solutions to Combinatorial Problems," Science, 266 (11),  1994.

 

[42] Cf. http://hagi.is.s.u-tokyo.ac.jp/MCP/

 

[43] Voir par exemple Y. Benenson, R. Adar, T. Paz-Elizur, Z. Livneh and E. Shapiro, “ DNA molecule provides a computing machine with both data and fuel”, Proc. Natl. Acad. Sci. USA, 2003, ou K., Benenson, T., Paz-Elitzur, R., Adar, E., Keinan, Z., Livneh and E. Shapiro, “Programmable and autonomous computing machine made of biomolecules”,  Nature 414, 430-434, 2001.

 

[44] Cf. ses recherches autour des « langages logiques concurrents », voir par exemple E. Shapiro, ”The Family of Concurrent Logic Programming Languages”. ACM Computing Surveys, 21(3):413-510,  ACM Press 1989.