3.238.96.184         CPU usage
0..........50..........100

G a b y ' s   B l o g

 27.08.2006   

La Toile - Partie II

27 Août 2006

La Toile
Jean-Pierre Balpe (2001)
ISBN 2-84358-096-X
Cylibris ( http://www.cylibris.com/ )

Extraits :

» Professeur Balise Carver, ethnosociologue, enseignant agréé par les universités de Boone (Caroline du Nord, USA), Athènes (Grèce, Europe) et Kyobé (Japon, Asean). Donne des cours sur la naissance du mouvement artistique webart et élabore une thèse sur la création des réseaux. «
«Le webart -plus souvent désigné par le sigle WBA - ou «art du réseau», est un concept apparu à la fin du siècle dernier. Plus exactement dans les années 1990, à la suite de travaux d'artistes comme Fred Forest qui, en 1994, crée «WorldField», première installation multimédia universelle sur réseau. Il avait, bien sûr, quelques prédécesseurs, quelques tentatives généralement réservées à des réseaux locaux, et qui, pour cela, ne peuvent être considérées comme faisant partie intégrante du WBA. Elles préfiguraient les tendances essentielles : instantanéité, ubiquité, mobilité, générativité et asubjectivité. Comme j'ai déjà eu l'occasion de vous le dire, il n'y a jamais eu, dans l'histoire de la création humaine, d'exemples où l'apparition d'un nouveau média n'ait pas entraîné celle d'une conception nouvelle de l'art. Le webart, comme son nom l'indique, est une réponse à la proposition médiatique novatrice que constitue la notion du réseau. Le mouvement du webart a complètement modifié la nature profonde des concepts d'art, d'action artistique et de création. Au point que l'on peut raisonnablement se deamnder si, dans les deux cas, le mot «art» désigne bien la même réalité... Mais cette remarque anticipe sur ma conclusion. il faut d'abord que nous explorions quelques-unes des manifestations passées et actuelles du webart ! «

Extraits de thèse «L'Histoire des changements socio-économiques mondiaux induits par l'apparition des réseaux intégrés d'information et les stratégies d'acteurs» :
» C'est en 1992, alors que la présidence des États-Unis était assurée par Bill Clinton, que le vice-président, un nommé al Gore, lança le projet qu'il désigna du nom d'«information super highways». Ce projet intervenait au moment où les USA commençaient à peine à sortir de la grande crise économique des années 1980, crise qui, dans le monde occidental, avait mis au chômage des millions d'individus et fut le révélateur d'une réorganisation profonde su système économique mondial. Dans l'esprit du vice-président Al Gore, il s'agissait d'imaginer quelque chose comme uen «nouvelle frontière», c'est-à-dire un projet économique capable de redonner aux États-Unis d'Amérique un élan nouveau et, par la suite, de leur permettre de retrouver une partie de leur suprémaie économique; l'exemple originel était le rôle que, en leur temps, avaient pu jouer le plan Marshall, la course aux armements de la guerre froide avec l'ancienne URSS, et la conquête spatiale. Par l'impulsion de projets ambitieux dont les retombées industrielles promettaient d'être multiples, injecter dans le circuit économique des centaines de milliards de dollars. Cette injection de sommes énormes ne pouvaient manquer de susciter de nombreuses recherches qui auraient de rapides incidences sur la vie quotidienne de tous les citoyens, créeraient de nouveaux marchés capables de relayer ceux qui s'essouflaient par suite des changements économique sur la planète : marchés agricoles sur lesquels les pays du Tiers-Monde ou d'Europe Centrale intervenaient de plus en plus, marchés de l'armement dont la fin de la guerre froide, suite à l'effrondrement des pays communistes, avait considérablement réduit l'importance économique...

Le choix du secteur de l'information n'était pas innocent. La plupart des futurologues, comme Alvin et Heidi Toffler (cf. notamment leur ouvrage Powershift, 1990, Bantam books, New York) considéraient que l'information promettait d'être le plus grand gisement productif de l'avenir. D'une part, la suprématie politique, économique et scientifique reposait déjà en grande partie sur la capacité à mobiliser, le plus rapidement possible, le plus grand nombre d'informations disponibles. D'autre part, les penseurs de cette époque commençaient à percevoir que, contrairement aux «matières premières» précédentes, celle que constituait l'information promettait d'être inépuisable en ce sens que toute réorganisation d'une information déjà utilisée devenait une nouvelle source d'information. une des images favorites de ces analystes était celles des «surgénérateurs nucléaires» qui, tout en produisant de l'énergie, créaient du combustible nouveau. Et ceci dans une spirale sans fin. De la même manière, l'information promettait d'être une manière première qui se reproduirait d'elle-même au fur et à mesure de sa consommation. Inépuisable et bon marché à condition de disposer des ressources et des technologies qui permettaient de la traiter.

Or, dans le domaine de l'information, les USA avaient, en 1990, une avance non négligeable. En effet, même si lmes pays de l'Asie avaient su industrialiser à moindre coût la fabrication matérielle des composants électroniques nécessaires au traitement des informations, ils restaient en retard en ce qui concernait l'invention des systèmes et la maitrise des technologies de pointe. Semi-conducteurs performants, ordinateurs puissants, réseaux satellites, industries de production de contenus informatifs, grands réseaux de télévision, télévision numérique, étaient encore alors - même si les japonais notamment commençaient à s'intéresser à ce secteur - largement entre les mains des grands groupes américains Intel Microsoft, IBM, Rank Xerox, Time Warner, etc. De plus, des myriades de petites sociétés inventives, notamment sur la côte Ouest des USA,imaginaient chaque jour un futur possible à leurs technologies.

Il y avait donc sur ce terrain une possibilité réelle de restauration - si tant est qu'elle ait été alors en danger - de la suprématie économique des États-Unis. Que les «information super highways» - les «inforoutes» comme les nommèrent ensuite les francophones - aient visé le multimédia n'est - dans ce contexte - nullement surprenant. Il s'agissait, à partir d'une réelle avance technologique, de tirer le parti maximal des caractéristiques de la structure américaine de production. L'existence, dans ce pays, de grands groupes audiovisuels, pouvait lui assurer un avantage majeur. Les Français, par exemple, qui pendant un certain temps ont continué à déclarer que les «inforoutes» n'étaient rien d'autr que la technologie qu'ils appelaient alors «Minitel», c'est-à-dire un vaste réseau public d'informations numérisées, ne semblaient pas avoir compris que la différence essentielle ne reposait pas sur le niveau technique - vitesse, nombre, de bauds/seconde - mais sur la spécificité des contenus et, peut-être avant tout sur la différence culturelle d'approche.

Aucune structure éditoriale européenne ne pourrait en effet rivaliser avec la puissance des grands groupes producteurs qu'étaient déjà Walt Disney CO. ou ce que l'on appelait, en ce temps-là, les «major companies». Qu'elles aient immédiatement visé un monde futuriste n'est pas davantage étonnant, il s'agissait de tirer parti au maximum des capacités inventives des sociétés américaines en mettant, dès l'origine, la barre suffisamment haut pour décourager tout nouvel entrant, aussi puissant puisse-t-il être ! «

» À l'origine de l'architecture du réseau, les impératifs étaient d'ordre militaire. De 1945 à 1985 environ, durant ce que l'on a alors appelé la «guerre froide», le monde était divisé en deux blocs antagonistes : Est, Ouest. Cette situation présentait des avantages politiques incontestables dans la mesure où chacun savait où était so ennemi. Chaque état devait choisir son camp, chacun des camps avait un ordre interne mi-imposé, mi-accepté par son «chef de file», USA pour l'Ouest, URSS pour l'Est. Un équilibre s'était ainsi maintenu qui, s'il suscita ou laissa se mener quantité de guerres locales - parfois très violentes -, assura, d'une certaine façon, le maintien de la paix mondiale. Cependant, une telle stabilité ne pouvait persister que dans la mesure où chacun des deux camps se sentait capable de résister à son adversaire et de lui infliger des pertes considérables... on appelait cette situation «équilibre de la terreur». Cet équilibre reposait sur le dogme de la «dissuasion nucléaire», stratégie qui consistait à faire en sorte que chacun craigne suffisamment la puissance adverse pour ne jamais oser la provoquer. pour qu'un tel jeu - « je te tiens, tu me tiens par la barbichette...» - présente une certaine crédibilité, il ne fallait pas que l'essentiel du potentiel dissuasif de l'un des deux camps puisse courir le risque d'être détruit par une action d'envergure; Or ce risque existait !

L'informatique de l'époque était une informatique lourde, centralisée, peu puissante (voir G. Verroust, Histoire de l'informatique, Fayard, Paris, 2011). Une frappe sur le centre informatique du Pentagone (siège du ministère US de la guerre) riquait de paralyser toutes les capacités de riposte de l'armée américaine, donc, de l'Ouest tout entier. Ce risque n'était pas acceptable...

En 1969, quelques spécialistes pensèrent que pour que le «cerveau» de l'armée américaine soit moins vulnérable, il fallait le fractionner en une multitude de «sous-cerveaux» dont chacun pouvait se substituer aux défaillances de n'importe lequel des autres. L'architecture du réseau était née. D'une architecture centralisée, fragile aux attaques extérieures on passait à une architecture décentralisée, répartie, presque insensible aux agressions externes. Plus de cerveau responsable et indispensable, mais la collaboration permanente d'un grand nombre de cerveaux autonomes. Dès 1970, les scientifiques qui eurent accès à ce réseau s'aperçurent d'un certain nombre d'effets secondaires inattendus : d'une part, le réseau était accessible à partir d'un grand nombre de laboratoires des USA, ce qui leur permettait des échanges rapides ; d'autre part - contrairement à une idée naïve - la liaison la plus rapide n'était pas toujours la plus courte et il était parfois plus rapide d'accéder, à partir de New York, à un ordinateur, à un ordinateur de Washington en passant par San Francisco. Le réseau parvenait toujours à trouver un point de passage quelconque relaint deux points où qu'ils se trouvent.

Ces deux comosantes techniques modifièrent rapidement les usages. Les échanges scientifiques ne tardèrent pas à se multiplier. À la suite de quoi ce que les scientifiques découvrirent, même avec le réseau sommaire d'alors qui ne transmettait que des données pauvres - du texte pour l'essentiel - c'est que cette architecture en toile d'araignée avait des effets sémantiques; Circulant de façon totalement répartie, suivant des trajectoires inattendues, les informations, passant par des lieux qui n'étaient pas originairement prévus pour elles, se trouvaient dans des contextes inattendus où elles produisaient leurs effets spécifiques. Il y avait non seulement un effet «boule de neige», mais également un effet «créatif» ! «



@+
Gaby


Publié dans la catégorie : Livres


(Publicité)


Connection

Last Update : 30.12.2015

External Links
Gaby's Home
Gaby's Blog
Gaby's Mail

Blog Links
Police
Cossaw
SunFox
Richard
Gilda
MelODye
Esther
Kozlika

Internal Links
Gaby's Blog
Réseau divin
Perso
Actualités
Livres
Commerce sur Internet
Emploi
Sorcier Glouton
Biologie
Cyberdelia

Join Webmaster
Zone Privée

Visitor No : <unknown>
For spam