Savoir est apparenté étymologiquement aux mots saveur, sapidité, sapience. La sapience est sapide. La racine en est indo-européenne : sap-, le « goût ». Dans toute affaire de « goût », il y a l’idée d’un jugement, d’une liberté d’appréciation et de déploiement. Selon cette source étymologique, le savoir ne serait pas de l’ordre de l’ouïe ou de la vue (qui ne produirait que de « l’information »), mais bien des papilles gustatives (prélude à la « digestion »).
Culture vient du mot latin colere (« habiter », « cultiver », ou « honorer »). Le terme cultura définit l’action de cultiver la terre. Cicéron fut le premier à appliquer le mot cultura comme métaphore : « Un champ si fertile soit-il ne peut être productif sans culture, et c'est la même chose pour l'humain sans enseignement ». (Tusculanes, II, 13). Il faut donc cultiver son esprit. « Excolere animum ».
Numérique et nombre viennent du grec nemein, partager, diviser, distribuer. D’où nomos, la loi, Nemesis, la déesse de la colère des dieux, mais aussi nomas, pâturage et conséquemment nomados, nomade.
Quatre mots, quatre métaphores : « l’exode », le « goût », la « culture », le « nomadisme ». Elles dessinent une dynamique de migration, une liberté de jugement, un esprit d’approfondissement, de patience, une attention aux temps longs, une incitation au vagabondage, à l’errance de la « sérendipité ».
Ces vieilles racines montrent qu’il s’agit d’apprendre à sortir de soi, à se libérer du joug des limites, des frontières, des clôtures. Former son propre « goût », conquérir une aptitude à la liberté, au choix. Et enfin il y a la vieille leçon du soc et du sol, de la graine et de la germination : pénétration, retournement, ensemencement, moisson. Leçon duelle, ou complémentaire, de cette autre qui met l’accent sur la transhumance et le nomadisme. C’est le dualisme de l’agriculteur et de l’éleveur, de Caïn et d’Abel.
Il est difficile de savoir ce que réserve le 21ème siècle. Mais il est presque certain qu’il sera truffé de nouvelles frontières, de difficiles « choix », et de champs clos (à ouvrir). Les frontières, il faudra apprendre à les traverser, à les dépasser. Les choix politiques, économiques, sociétaux, écologiques, globaux, régionaux, locaux et aussi les choix personnels seront matière à exercer son goût. Eduquer au goût n’est pas une petite affaire, si l’on entend par cela la capacité à naviguer dans l’océan des possibles. Quant aux champs du futur, ils sont nombreux, mais cette métaphore s’applique particulièrement bien au cerveau lui-même, objet et sujet de son propre retournement, de son réensemencement, avec les sciences de la cognition, les neurobiologies, et les nouvelles techniques d’imagerie neuronale et synaptique.
Dans l’océan des possibles, on voit aussi poindre de nombreux récifs : une mondialisation sans régulation, un rééquilibrage massif des richesses entre pays du Nord et du Sud, de l’Ouest et de l’Est, une crise majeure des paradigmes économiques usuels, la fin des modèles (des « grands récits ») du 20ème siècle.
Il faut s’attendre à une nécessaire grande transformation (pour reprendre ce mot de Karl Polanyi, qui l’appliquait pour sa part à la révolution industrielle, à partir de la fin du 18ème siècle). L’évidente et rapide mutation des paradigmes économiques, politiques et sociaux (de développement, de distribution, de justice, d’équité) doit-elle avoir un impact sur l’orientation des savoirs, des connaissances, des compétences à acquérir, non seulement à l’école et à l’université, mais tout au long de la vie ?
Comment former les esprits en temps de crise ? En temps de mondialisation ? En temps de mutation ? Dans quel but ? Pour quelles fins ?
Sur quoi mettre l’accent ? Esprit critique, esprit de synthèse, d’analyse, capacité de pensée systémique ? Esprit créatif, esprit collaboratif ? Multilinguisme, multiculturalisme ? Tout cela sans doute. Mais dans quelle proportion ? Avec quel équilibre ?
Comment faire travailler la mémoire dans un monde strié de réseaux puissants, ponctué de la présence ubiquitaire de points d’accès aux « savoirs » ?
Comment éduquer le regard dans un monde constellé de niveaux de représentations contigus ou superposés, et même d’étiquettes virtuelles sous-titrant  la v.o. de la réalité réelle par le biais d’une réalité augmentée ?
Que penser de la « Googolisation » de la mémoire et du regard ? Quid d’un bac où l’étudiant aurait accès au web ? Qu’est-ce que l’on évaluerait alors ?
Qu’est-ce que la virtualisation, la simulation offrent sur le plan pédagogique ? Est-ce que la réalité augmentée est l’opportunité d’une « recherche augmentée », d’une « pensée augmentée » ?
La superposition, l’enchevêtrement de réalités et de virtualités, la prolifération de représentations hybrides, la convergence des techno-sciences implique une refonte des manières de penser le monde et de former les esprits.
Tout cela implique-t-il la nécessité d’une rupture forte dans les modèles d’éducation, suivant des modalités résolument nouvelles ? Comment allier ces démarches novatrices avec l’exigence d’une culture retournant les « racines », allant puiser des semences dans la connaissance des héritages classiques ?
Pour de tenter de répondre à ces questions, je voudrais évoquer le thème de l’éducation à l’information et aux médias, selon quatre angles. Il y a la question des valeurs (citoyenneté, liberté d’expression, liberté d’accès aux informations et aux connaissances, participation au débat démocratique, déontologie, éthique). La question des représentations, des langages, des informations et de leur « maîtrise ». La question de la différenciation et de la convergence des médias, anciens et nouveaux, de leur structure, de leurs puissances et de leurs dangers. Et la question de l’impact politique, économique et social des révolutions en cours, ce qu’on pourrait appeler l’économie politique et la géostratégie des cybermondes.
Les valeurs.
Les médias  sont ubiquitaires, massifs ou subtils, fort anciens ou tombés de la dernière pluie. Ils sont essentiels pour la démocratie, mais on se rappelle aussi Goebbels ou la radio des mille collines. Il n’y a pas de médias neutres, à l’évidence. Le citoyen doit avoir un solide esprit critique pour se repérer dans la jungle des signifiants et des signifiés. Cela ne s’improvise pas. L’honnête homme, l’honnête femme, doivent acquérir des compétences spéciales pour maîtriser un monde médiatisé de mille manières, pour tirer le meilleur parti des puissances d’information et de formation, et pour éviter de tomber dans leurs pièges. Il faut désormais savoir comment savoir, savoir chercher, savoir trouver, savoir évaluer, savoir critiquer, savoir utiliser, savoir partager, et aussi savoir créer des informations, des savoirs, des connaissances. Il s’agit bien là d’acquérir une méthode, une méta-méthode – non de survie, mais de vie pleine dans le monde de l’outre-modernité. Trois valeurs résument l’esprit de la méthode : esprit critique, libre expression, participation créative. Tout un programme.
Mais il y a encore autre chose. Acquérir ce genre de compétences c’est bien, mais ce n’est pas assez. Encore faut-il savoir à quoi on va les appliquer, et pour quelles « fins » ? On a pu dire que la vocation du journaliste est de dire la « vérité » afin que le peuple puisse être « souverain ». C’est une belle formule. On pourrait y ajouter le renforcement de la liberté démocratique, l’édification de la responsabilité civique et de la citoyenneté, l’exigence de transparence. Ce n’est pas seulement des professionnels des médias et de la politique qu’on peut attendre cela, mais aussi de tout un chacun, puisque tout le monde « poste », « tweete », « publie » et « témoigne ».
Les représentations, les langages et la « maîtrise des informations »
Qu’est-ce qu’une représentation ? Une façon de voir, de se voir, et de voir les autres, une manière de se figurer le monde. Les journalistes, les photographes, les cinéastes, les romanciers, les philosophes, les politiques ont la leur. Il y a des représentations complexes et touffues, d’autres stéréotypées et simplistes, subjectives et partisanes, ou objectives et équilibrées. L’art de maîtriser les représentations que l’on rencontre à tout moment fait partie des compétences utiles aux navigateurs dans l’océan des informations et des savoirs. Il faut savoir mieux voir les images, et surtout ce qu’elles cachent, ce qu’elles ne montrent pas, leur hors-champ, leur contexte. Les représentations ne présentent que rarement leurs absences. Les médias sont souvent bavards, profus, ils ont beaucoup de latitude pour proposer analyses, enjeux et défis à la société. Mais ils sont aussi suivistes. Ils reflètent, volontairement ou non, la société en lui donnant le genre d’histoires et de représentations qu’elle demande, ou qu’on croit qu’elle demande.

Mais quels sont les arbitres des élégances ? Qui dicte le goût du jour ? La ligne éditoriale ? La mode à suivre ? Qui intronise les petits marquis furtifs et éphémères, ou indéracinables du PAF ? Qui décide des clichés à ressasser jusqu’à la nausée ? Et qui ferme les ondes aux idées franchement neuves, qui n’ont pour les porter que leurs fragiles « pattes de colombe » ? Comment ces images, ces mots, ces cadrages marquent-ils notre perception de nous-mêmes et des autres, notre compréhension du monde ?

Tous les jours, se mélangent sans trêve dans les cerveaux, rumeurs, doutes, propagandes, désinformations, espoirs et cris d’alarme. Qui sélectionne, hiérarchise, vérifie, compile, compare, conteste ces informations tous azimuts ? Cela devrait être une fonction quasi-sacerdotale dans une démocratie que celle consistant à vérifier les signes et les viscères que les pythies du jour répandent sur les autels médiatiques.

«  Le message, c’est le médium » disait Marshall McLuhan en 1964. Les bibliothèques, les archives, les musées, les journaux, les radios, les télés, Internet ont leur propre «langage », leur « grammaire », leurs « codes », leurs conventions – techniques, symboliques, sémiotiques.  Comment diffèrent-ils ? Que peuvent-ils exprimer ? Quelles sont leurs limites ? Comment ces codes sont-ils reçus, compris, interprétés, détournés ?

Qu’est-ce qu’une une véritable « maîtrise de l’information » ?

Une manière de la définir est qu’il nous faut « apprendre à apprendre ». Apprendre à reconnaître nos besoins en informations, savoir localiser, récupérer, analyser, organiser et évaluer cette information, puis l’utiliser, l’appliquer, la reproduire et la communiquer pour prendre des décisions spécifiques et régler des problèmes réels.
Les enseignants doivent acquérir pour eux-mêmes et développer chez leurs élèves un
ensemble de compétences permettant d’obtenir, comprendre, adapter, stocker et présenter des informations aux fins d’analyse des problèmes et de décision. Ces compétences s’appliquent à tout contexte d’enseignement et d’apprentissage, que ce soit dans le milieu de l’éducation, le travail en général, l’environnement professionnel ou l’enrichissement personnel. Mais cette maîtrise est-elle suffisante ?
L’information n’est pas encore savoir ou connaissance. L’information n’est faite que de données collectées, traitées et interprétées de façon à être présentées sous une forme utilisable.
En revanche, le savoir est « ce qui nous change » intellectuellement. Et la connaissance c’est ce qui atteint et modifie la conscience. Les expressions « société numérique » (digital society dans le langage de l’UE), « société du savoir », « société de la connaissance » ne sont pas équivalentes.
L’une des plus anciennes civilisations du monde, celle des Véda, fut la première à se revendiquer comme « société de la connaissance ». le mot Véda veut dire « savoir » en sanscrit. La connaissance y est portée au rang de religion, de vision du monde et de « révélation ».
Par le biais du zoroastrisme et du pythagorisme, l’Occident hérita aussi de cette idée que le monde sera sauvé par le savoir. C’est proprement l’idée fondamentale des divers gnosticismes. La gnose de Marcion tenta de prendre le pas sur le christianisme des premiers temps. Le salut par la connaissance était opposé au salut par la grâce, ou par la charité. Contrairement aux apparences, le gnosticisme n’a pas complètement disparu, bien au contraire. Des philosophes comme Hans Blumenberg ou Erik Peterson (tous deux philosophes et théologiens catholiques allemands) estimaient dans la première moitié du 20ème siècle que la modernité équivalait en fait à l’émergence d’une nouvelle période gnostique.

Anciens et nouveaux médias.

En quoi diffèrent-ils ? En quoi convergent-ils ? Est-ce que les 2000 livres d’une liseuse de poche équivalent à une bonne bibliothèque remplie de livres ? En quoi la cinémathèque de Langlois diffère-t-elle l’accès universel par Internet à presque toute la filmothèque mondiale ? Est-ce que les médias traditionnels vont pouvoir longtemps coexister sous leur forme actuelle avec la myriade de nouveaux médias numériques ?
Mais il y a d’autres questions, fort significatives. Les images réelles-virtuelles effacent toutes les frontières habituelles entre réalité et fiction. On peut fabriquer de vraies-fausses images d’archives, et la simulation du champ de bataille atteint des degrés de réalisme confondant tant en terme de qualité d’image que de fonctions représentées. Des acteurs virtuels peuvent avec un réalisme époustouflant faire revivre des acteurs disparus, ou bien des acteurs vivants peuvent s’incarner dans l’apparence de leur choix. Les androïdes de compagnie commencent à venir combler les solitudes des foules urbaines, à l’aide de techniques animatroniques de pointe, incluant des peaux agréables à toucher… Le cyber-sexe et la télé-stimulation font des progrès adaptés à leur marché propre. L’immersion dans les images est banalisée, et Google Glass a démocratisé l’accès aux scanneurs rétiniens miniaturisés, ouvrant la voie à des applications inédites de réalités augmentées et de géolocalisation. La « réalité augmentée » permet déjà de superposer des images virtuelles sur le corps. On peut ainsi voir l’anatomie de tel corps ou même son fonctionnement physiologique superposé à son apparence extérieure. Les artistes s’emparent de l’idée : Stelarc se greffent une oreille sous la peau du bras. Encore un peu, et des organes « augmentés » prolifèreront à des endroits inattendus du corps. Des électrodes placées sur les muscles surveillent les paramètres biologiques, en attendant les promesses des nano-biotechnologies en la matière. Les interactions avec un environnement « augmenté » se font ubiquitaire. On peut pointer tel objet et obtenir toute une série d’informations sur sa structure ou son fonctionnement. Par quel miracle ? Une simple combinaison de puces RFID, de caméras miniaturisées et de téléphone mobile. L’idée de « présence virtuelle » peut se conjuguer dans l’infiniment petit, et permettre de se retrouver au niveau nanométrique à sculpter interactivement des molécules atome par atome, ou bien projeté dans l’espace et se déplacer sur Mars en télé-présence. Les allers retours entre réel et virtuel sont aisés. Le système d’immersion virtuelle CAVE permet une vraie opération chirurgicale dans un bloc opératoire « augmenté » d’images pertinentes. Les humains bioniques apparaissent heureux de retrouver un bras ou des jambes parfaitement fonctionnels.   « Je peux plier mon bras, l'étendre, ouvrir et fermer ma main simplement en pensant à ces mouvements » déclara en 2006 Claudia Mitchell la première personne à avoir bénéficié de cette chirurgie réparatrice.
Dans un autre ordre d’idées, les progrès se multiplient sur le front de la collecte des renseignements (des satellites militaires et des drones tueurs aux applications de Google Maps). Citons à titre d’illustration la miniaturisation de ces drones espions qui pourront voleter dans nos jardins ou devant nos fenêtres : ils ont déjà la taille et la forme d’une libellule ou d’un hanneton, et pèsent moins de 10 grammes. Ces insectes à la vue et à l’ouïe perçante pourront aussi être utilisés à des fins privées, loin d’être réservés aux applications militaires ou de sécurité.
Des communautés virtuelles comme Second Life prennent leur essor, et des Eglises ou des ambassades (Maldives, Suède, Colombie, Philippines, Estonie, Serbie, Macédoine, Albanie) viennent officiellement s’y établir. On peut faire des affaires florissantes dans le virtuel. Business Week et Fortune ont commis des articles élogieux sur une certaine Anshe Shung, « la Rockefeller de Second Life » qui fait du courtage de terrains virtuels et des opérations sur les monnaies virtuelles. La simulation de mondes atteint déjà la dimension de pays entiers. Ainsi l’armée américaine a développé une base de données 3D à l’échelle de l’Iraq tout entier, dans un projet nommé « There », pour entraîner ses soldats à la guerre urbaine et aux manœuvres à grande échelle.
Une autre agence proche de ce type d’intérêts, la fameuse DARPA, a lancé le projet LifeLog qui ambitionne d’enregistrer toutes les données personnelles des individus, pendant leur vie entière. Ce système de saisie de l’intégralité des "évènements, états et relations" vise à identifier les "préférences, plans, buts, et autres marqueurs d’intention" de chacun de nous. Il y a aussi le projet de Google de capter en permanence l’ambiance visuelle et sonore des lieux d’habitation (par Webcam et par le biais des capteurs sonores et visuels des micro-ordinateurs). Et il y a le début de la mise en place de puces RFID sur les permis de conduire permettant pour le bénéfice de la police ou des assureurs un contrôle en temps réel et en permanence des faits et gestes des automobilistes.
On parle du concept de sous-veillance qui serait en fait une surveillance dûment acceptée par chaque individu, contribuant à se surveiller soi-même. Des objets particuliers viennent généraliser encore cette idée. Les « spimes » (space + time) sont des objets individuellement identifiés pouvant être suivis dans le temps et dans l’espace. Les “blogjects” (blog + objects) sont des objets qui enregistrent tous les paramètres de leur utilisation et rendent cette information publiquement accessible, en permanence. Et il y a l’internet du futur avec son étiquetage massif des moindres objets, mais aussi des mots, assemblages de mots et des concepts utilisés par telle ou telle personne. Des entreprises de data-mining fouillant dans les profils de consommation ou de navigation sur la Toile se réjouissent des perspectives commerciales ou politique du Cloud, du Big Data et du Web sémantique.
On pourrait ainsi avance l’idée que ces diverses formes de convergence entre la réalité et les virtualités créent une sorte de « réalité-fusion », où se mêlent divers niveaux de cognition, de simulation, d’augmentation et d’action. La réalité-fusion serait alors l’équivalent social du méta-média que serait l’everyware (tout, partout, tout le temps).
La réalité-fusion propose une sorte de monde intermédiaire entre réalité et abstraction, dans lequel nous sommes invités à vivre une vie dite « augmentée ». Elle implique un brouillage des dualismes simples et des antonymies anciennes. Elle multiplie les mélanges et les fusions entre modèles et images, entre écrans et réalités, entre présences et représentations. Elle correspond assez bien au monde platonicien des « intermédiaires » (metaxu), mais lui donne une portée nouvelle, en rendant ces « intermédiaires » de plus en plus autonomes, et capables d’influer grandement la vie des gens.
Pour les Scolastiques, intervenant dans la fameuse Querelle des universaux, les Êtres de raison (entia rationis), créés par la pensée, étaient incapables d’exister hors de l’esprit, bien que construits avec des éléments empruntés au réel. Mais aujourd’hui, par la médiation des capteurs et des effecteurs, les êtres de raison acquièrent un statut de quasi-objet: ils peuvent être détachés de l’esprit qui les conçoit et mener une « vie propre » dans le monde réel. Ils constituent peu à peu une quasi-réalité  indépendante, quoique greffée sur le réel. Cette réalité on pourrait l’appeler « le virtuel ». Le virtuel, c’est l’ensemble des « objets de pensée » capables d’interagir réellement avec le monde -- et avec nos corps. C’est un espace de langage, multidimensionnel, métamorphique, superposant niveaux de sens et de perceptions. Ce n’est pas un lieu (topos), mais un espace de sens en mouvement (tropos), un univers de métaphores (tropes).
L’interpénétration d’un univers réel (notre « monde commun ») et d’univers virtuels (peuplés de quasi-objets, d’êtres de raison) est un défi pour l’analyse, la critique. C’est un défi aussi pour l’éducation et la maîtrise de nouvelles compétences. Il faut apprendre à évaluer divers niveaux de virtualisation ou d’immatérialité. Chacun de ces niveaux d’abstraction possède ses propres codes, ses propres langages, ses paradigmes, ses horizons d’intelligibilité. Jacques Maritain écrivait dans Les degrés du savoir : « Autant il y a de degrés d’immatérialité ou d’immatérialisation de l’objet, autant il y a d’univers d’intelligibilité ». Il faut apprendre à distinguer finement les degrés d’intelligibilité dans un spectre de représentations, possédant chacune son propre mélange de concepts et de percepts, d’objets immatériels et de référents réels. Parmi ces nouveaux objets, il y a ce qu’on pourrait appeler des « quasi-corps » et des « quasi-êtres ». La biologie de synthèse permet d’envisager de créer des formes totalement nouvelles d’ADN. Parmi elles l’AXN, où l’acide désoxyribonucléique qui donne son « D » à l’ADN pourrait être remplacé par des formes complètement différentes d’acides aminés, donnant lieu à une chimie de la vie complètement étrangère à la vie sur terre.
Mais il y a aussi un aspect philosophique qu’il importe de souligner. Platon (« le corps est la prison de l’âme ») ou Descartes, avec la « glande pinéale » et la métaphore de l’esprit «pilote en son navire» nous avaient introduit dans le monde du dualisme Corps/Esprit. Nietzsche symbolise assez bien la lourde tendance des modernes vers de nouvelles formes de monisme matérialiste. « Je suis corps et rien d’autre », proclame-t-il. Au 20ème siècle, Husserl et les phénoménologues voulaient « mettre le monde entre parenthèses », affirmaient la nécessité d’une « suspension de la croyance » qu’ils baptisèrent d’un vieux mot grec : époché. Demain, ni l’idéalisme dualiste ni le monisme matérialiste, ni la phénoménologie suspensive, ne pourront suffire à combler les tendances à la dissociation et à la schizophrénie, qu’un Rimbaud, plus poète, résuma d’une formule directe: « Je est un autre ». Je est même plusieurs autres, et plusieurs « je » et plusieurs « ils » se conjuguent en chacun de nous. Il va falloir naviguer entre divers niveaux d’êtres, entre quasi-sujets et quasi-objets.
Nous sommes sans doute invités à traiter de ces questions non pas sous l’angle simplement personnel, mais bien du point de vue de leur impact sociétal. Les esprits et les corps sont de plus en plus déréalisés, quoiqu’« augmentés », et isolés, bien que « mis en réseau ». De plus, l’abstraction et la complexité croissante des objets, des sujets et des « modes d’existence » (B. Latour) accroissent la forte probabilité de points de basculement et de « singularités » menaçant brutalement l’ordre du monde. Les violentes conséquences politiques et économiques des nouveaux Léviathans du virtuel, les monopoles qu’ils rendront possibles ainsi que les menaces directes sur le « bien commun » qu’ils induiront, requièrent une philosophie politique appropriée. Le virtuel a pour vocation intrinsèque de devenir une forme totale (et donc, peut-être bien, totalitaire?). L’un des problèmes politiques posé par une société du virtuel, est la place faite à la justice, c’est-à-dire la place faite à « l’autre » (les hors réseau, hors modèle, ceux qui ont été mis hors-jeu).

Géostratégie des cybermondes
L’importance de la révolution médiatique en cours se fera peut-être mieux comprendre si on analyse son impact géostratégique. La géostratégie du virtuel et du cyberespace permet d’analyser l’évolution actuelle des rapports entre les nations, ainsi que le déplacement des centres de pouvoir. Hier et avant-hier, les grands empires se dotaient de géostratégies impliquant des « lignes globales ». Par exemple, le Traité de Tordesillas (1494) et celui de Saragosse (1529) tracèrent, sous l’égide respective des papes Alexandre VI et Clément VII, des « lignes globales » dans l’Atlantique et dans le Pacifique, répartissant l’Amérique et l’Asie, entre les puissances coloniales d’alors, l’Espagne et le Portugal.
Au 19ème siècle, la doctrine Monroe fixa la zone exclusive d’influence des États-Unis. C’était « l’hémisphère occidental ». Il s’agissait alors de limiter les menées des vieilles puissances européennes dans le Nouveau Monde. Puis, au tournant du siècle, divers stratèges s’employèrent à théoriser les nécessaires adaptations de cette doctrine devenue trop étroite. McKinder en 1919 évoqua une nouvelle ligne globale, celle qui sépare les puissances de la mer et les puissances de la terre. Il s’agissait alors d’attirer l’attention du pouvoir britannique sur les dangers de se reposer sur la seule domination maritime, qui avait si bien réussi à l’Empire, jusqu’aux douloureuse remises en cause qu’annonçaient la 1ère guerre mondiale. La doctrine de McKinder se résume ainsi : « Qui contrôle l'Europe de l'Est contrôle le Heartland. Qui contrôle le Heartland contrôle l'Île Monde. Qui contrôle l'Île Monde contrôle le Monde ». Carl Schmitt, quant à lui, dans son Nomos de la Terre, proposa une autre ligne globale celle séparant les « Amis » des « Ennemis ». On sait ce qu’il advint de ce genre de vision du monde, qui sembla trouver sa fin avec le démantèlement du Rideau de fer.
Aujourd’hui, la question géostratégique demeure. Mais par où passent exactement les « lignes globales » qui structurent les rapports de puissance mondiaux ? Certaines de ces lignes globales opèrent dès maintenant leurs subtiles exclusions dans le cyberespace, et plus généralement dans l’univers des logiciels, des matériels, des réseaux. Les standards, les normes, les protocoles, les routeurs, les virus, les « chevaux de Troie », les « portes de derrière » (trap-doors) qui peuvent être câblées dans le silicium par les fabricants de puces, sont quelques exemples des mille manières de prendre l’avantage dans un contrôle stratégique des « positions éminentes » du cyberespace. Les prolégomènes d’une cyber-guerre, encore larvée, se développent entre les plus puissantes nations, mais aussi avec la participation active de puissances de deuxième ou de troisième ordre. Une troisième « guerre mondiale » pourrait-elle se déclencher à grande échelle, à l’occasion du moindre dérapage consécutif à telle ou telle attaque préemptive, pour s’assurer définitivement l’hégémonie numérique, informationnelle ou cognitive ? C’est une hypothèse à considérer sérieusement.
La géostratégie enseigne que les puissances cherchent toujours à s’assurer le contrôle des « positions éminentes » et des « communs mondiaux » (jadis : la terre, la mer, l’espace, et maintenant cyberespace). Si l’on en juge par l’Histoire, on peut inférer que les impérialismes et les colonialismes du passé trouveront des formes équivalentes ou analogues dans le « cyberespace », le « nuage » et le « virtuel ».

Deux « convergences » disruptives
Dans les quarante dernières années on a pu observer successivement deux révolutions de « convergence ». La première, la convergence « numérique », annoncée en France par le rapport Nora-Minc en 1978, s’est d’abord traduite techniquement par la fusion progressive des fonctionnalités de la transmission d’informations, de leur traitement et de leur représentation audiovisuelle. Du point de vue économique et social, cette convergence a induit soit le délitement, soit la recomposition de secteurs entiers comme celui des télécommunications, de l’informatique, et de l’audiovisuel. La convergence numérique est désormais entrée dans sa phase d’accélération, mais elle est loin d’avoir encore révélé toutes ses potentialités disruptives.
La deuxième convergence, commencée depuis une dizaine d’années, est ce qu’on pourrait appeler la convergence « nanométrique ». Nanotechnologies, Biotechnologies, Info-technologies et Sciences Cognitives (« NBIC ») convergent en effet au niveau nanométrique par les méthodes et les références scientifiques employées, à l’échelle atomique ou moléculaire. On a surnommé ce phénomène le deuxième « BANG ». B, A, N, G : Bits, Atomes, Neurones et Gènes semblent désormais sur le même plan, puisqu’on peut agir sur eux avec des outils comparables, à l’échelle nanométrique.
Ces deux « convergences » se résument ainsi:
(1) Tout est nombre. C’est là, certes, une intuition fort ancienne, qui remonte au moins à Pythagore, lequel en avait tiré tout un système philosophique et religieux. Mais si l’idée en est ancienne, je crois que nous n’avons pas encore bien pris la mesure de ce qu’implique le retour en force d’un tel paradigme du « numérique », dans une civilisation de l’analogique.
 (2) Tout est nano. Le macro et le micro se mettent à converger au niveau nanométrique, où l’on peut manipuler la matière atome par atome. Alors qu’on opposait jadis le macrocosme et le microcosme, on peut désormais envisager d’opérer avec des outils, des modèles et des méthodes comparables à l’échelle nanométrique. C’est à cette échelle que l’on peut agir sur leur essence commune, leur substance partagée, modelable à volonté. On peut « reprogrammer » la matière, qu’elle soit organique ou vivante, et la restructurer, pour lui faire servir de nouvelles fins.
Cette dernière révolution est loin d’avoir donné à voir toute sa puissance. Mais on parle déjà d’un probable « changement de civilisation ».
Le vieux monde est déjà profondément bouleversé, son économie défaille, les sociétés doutent, les équilibres tanguent, et les rapports de force se recomposent. Or cela ne fait que commencer. Si on admet ce diagnostic, quel impact sur l’éducation, notre façon de considérer le savoir, la culture ? Dans un univers de fortes « convergences », et de complexités cachées, il faudra développer la maîtrise de nouvelles façons de se mouvoir dans les modèles et les représentations, de se déprendre de ses sens, de ses a priori. Nous aurons aussi besoin de nouvelles méthodes heuristiques. Il faudra observer et conceptualiser la prolifération des êtres intermédiaires, des quasi-objets et des quasi-sujets. Ces nouveaux « modes d’existence » nous appellent déjà à réfléchir sur l’indépendance de nos propres créations (intellectuelles ou industrielles). Il faudra apprendre à maîtriser la complexification croissante des hybridations, des mélanges, des métissages des réalités et des virtualités, requérant en conséquence une nouvelle acuité du regard et de l’esprit.