jeudi, novembre 22, 2018

LAC 2019

LANGAGE MULTIDIRECTIONNEL

Section : Web and Connected Art
LAC 2019
Introduction :
L’homme perçoit le monde au travers de ses sens et au travers de son langage.
Un langage ce n’est pas des sons, un langage ce n’est pas des mots. Un langage est une manière particulière d’associer les mots selon la tournure que l’on veut exprimer. Le même mot, selon son environnement peut vouloir dire un chose ou son contraire. Pas d’absolue, pas de croyances, juste l’art d’exprimer des sentiments en utilisant le même mot. Ce maniement particulier fait partie des non-dit de la langue française. Une technique incompatible avec la robotique informatique traditionnelle. C’est la raison pour laquelle, j’ai associé quelques codes informatiques afin de garder la spécificité de la langue française. Ces codes ont pour effet de générer images et sons représentant nos sentiments et nos idées. Comme avant nous générions les sentiments avec la langues française, je dis bien générer pas imiter, nous pouvons maintenant générer des vidéos pour exprimer nos sentiments, je dis bien générer non pas imiter.

Principe Technique :
Quand nous parlons français, nous créons un équilibre entre plusieurs dimensions. La résultante exprime l’idée, les sentiments, ou les idées composées de sentiment. Pour arriver à ce résultats nous utilisons parfois les mêmes mots qui changent de sens selon la dimension et la perception. Avec peu d’événements bien placés, nous créons beaucoup d’effets.
Pour générer les vidéo (images et sons), j’ai repris exactement la même technique. La seule contrainte rencontrée se trouve dans les protocoles informatiques. Pour être le plus universelle possible, j’ai décidé d’utiliser comme protocole informatique le HTML5.

Exemple du principe appliqué :
https://www.letime.net/alpha/exemple5.html

Dans les entrailles des sons générés et des images générées, de l’exemple, ou étude de la vidéo
En utilisant firefox comme navigateur, si nous faisons Ctrl+U, nous voyons apparaître le protocole qui fait naitre la vidéo.
Comme tout protocole, c ‘est une suite de conventions jamais très intéressantes par elles-mêmes. Des conventions qui peuvent variées, mais qui peuvent apporter un intérêts par la manière dont elles sont associées.
Ces conventions commencent par indiquer que c’est un navigateur web qui ouvre le fichier :
!DOCTYPE html html lang="fr" head meta charset="UTF-8" meta name="viewport" content="width=device-width,initial-scale=1"
Ensuite nous donnons un titre à la page web :
title Cheval au galop en css title
Et nous créons une balise style dans laquelle, nous allons dessiner plusieurs coups de crayons. Ces coups de crayons selon comment nous les assemblons, nous créons telle image ou telle image.
En exemple : .CorpsCheval{position:absolute;width:300px;height:150px;border:0;border-top-left-radius:50px;border-top-right-radius:50px;border-bottom-right-radius:50px;border-bottom-left-radius:50px;background-color:#cff}
Ici à chaque fois que je vais appeler dans le code le mot  CorpsCheval, il va se dessiner la figure générer par les conventions se trouvant entre les deux parenthèses.
Une fois tous les coups de crayons écrit, avant de fermer la balise style, nous permettons à l’utilisateur d’intervenir dans la vidéo en faisant apparaître un curseur de position .indique{cursor:pointer}. Pour que la vidéo puisse exister les images mêmes si elle existe en permanence, nous allons leur permettre d’apparaitre et de disparaître avec .cachemoi{display:none} .sortdutrou{display:inline}
Il ne nous reste plus qu’à fermer la balise head, pour ouvrir le corps du texte avec body.
Dans le corps du texte, nous préparons la lecture des fichiers audio généré, et nous indiquons les coups de crayons à placer dans chaque image. Une vidéo est une suite d’images.
Et avant de fermer le corps du texte, nous indiquons ou est le gestionnaire d’événements (exemple5.js), un petit fichier nommé script d’un grand mot pour d’écrire qu’il contient des protocoles de fonctionnement.
En détail, ces protocoles sont :
var persistanceretinienne=7 pour le nombre d'images contenu dans la vidéo
nbboucle=70 pour indiquer que le même mouvement va être répété 70 fois.
Une gestionnaire qui accroche les sons aux images.

Deuxième exemple du principe appliqué :
https://www.letime.net/PianoBaul

Je ne reviens pas sur les images pour me focaliser sur la génération des sons.
La technique consiste à créer un fichier de protocole par dimension, puis de mettre en équilibre toutes ces dimensions pour générer le son désiré.

Dans les entrailles, nous avons plusieurs fichiers comme :
adresse.js
adn1.js 
adapt1.js
adapt.js 
joa.js
Ces fichier sont repris dans le troisième exemple.

Troisième exemple de principe appliqué :
https://www.letime.net/j

La vidéo est composé de deux univers, l'un qui génère une mélodie selon l'ordre des sons générés, l'autre univers est un instrument de musique, le basculement se fait par l'utilisateur au clique sur le bouton rouge en bas à droite

 Dans les entrailles,

Il est composé d'un fichier de protocoles par meta dimension.
Une meta dimension est un équilibre entre plusieurs dimensions particulières.

act1.js est le fichier qui permet de dessiner les formes de front, les variations de pressions.

adapt.js est une table contenant toutes les réponses aux calculs mathématiques car si la technologie sait comparée, elle est bien incapable d'effectuer les calculs nécessaires.

adapt1.js est un fichier de convention qui permet de créer une entête au fichier audio pour indiquer aux machine que c'est un fichier audio

adn1.js est un fichier audio modélisé, les sons les plus simples peuvent s'écrire sous cette forme avec quelques octets

adresse.js est un fichier qui indique les emplacements des actions et événements de la vidéo web

back1.js a la même fonction que adresse.js mais c'est un gestionnaire d'événements plus général

example.js est le fichier gestionnaire de l'affichage des images générées de manière à piloter la vidéo

im.css est le fichier qui indique les angles, pour pouvoir faire tourner les traits de crayons générés

image.js est le fichier générateur d'images, c'est un dessinateur

index.html est le fichier de convention html5 qui appel tous les autres fichier

joa.js est un fichier qui permet d'actionner les actions génératrices des sons selon les lois de la dimension appelée



En résumé, les lois générales sont toujours plus proche du vrai que les lois particulières (cf Aristote), mais rien n’empêche d’utiliser des associations de lois particulières dans des dimensions annexes, pour produire les effets désirés. En exemple, si nous passons le doigt dans un filet d’eau sortant du robinet, nous observons qu’en amont du doigt le filet d’eau est déformé. De ceci, nous pouvons dire que le future influence le présent. Nous retrouvons exactement le même phénomène avec les sons, car un son de peut exister que s’il existe un espace non perturbateur assez grand  après lui. De ceci nous pouvons dire, que la loi générale est que le future influence le présent, mais qu’il peut exister des conditions particulières qui nous permettent parfois d’imaginer une ligne de temps continue. Il n’y a pas de mauvaise perception, il n’y a que des perceptions incomplètes et le but de cet écris pour LAC 2019 est de présenter la perception la plus complètes des techniques que j’utilise. Mais il ne faut jamais oublier que la vérité est une, et dès que nous présentons des versions de la vérité comme une ligne de temps continue, il n'y a plus de vérité. Pour générer les sons nous devons utiliser un système mathématique qui intègre que le présent est la résultante du future et du passé. Pour les images c'est identique, cela se nomme interférence mais c'est beaucoup moins évident que pour les sons.

Aucun commentaire: