Glossaire de l'Industrie 4.0

Cette page est un lexique de l’industrie 4.0 vers lequel vous pourrez revenir autant de fois que vous le voudrez pour avoir la définition précise des termes. On le sait tous, il y a autant de nouvelles technologies que de termes dont on ignore vraiment la signification. Flexthings a créé ce glossaire pour vous aider à tout comprendre rapidement. N’hésitez pas à nous laisser des commentaires si vous voulez plus d’explications.

Audio ambisonique

L’audio ambisonique représente une technique de capture, de synthèse et de reproduction d’environnement sonore. Ce procédé date des années 1970, il permet de représenter l’environnement sonore d’une salle à 360 degrés. En utilisant ce système, on plonge dans une immersion sonore totale. 

Dans les année 1990, avec l’évolution de la technologie on parle de plus en plus d’ambisonie d’ordres supérieurs. Aujourd’hui grâce à la démocratisation des outils informatiques la technologie connaît un essor sans précédent. Toute la technique s’oppose à celle appelée “speaker based”, technique qui utilise des speakers (2 en général) pour reproduire un environnement sonore. Là on parle de channel based, c’est à dire d’un réseau complet de haut parleur autour du sujet qui utilise l’audio ambisonique. Il s’agit bien d’une vraie immersion sonore.

Nous vous invitons à vous référer à l’excellent document de l’IRCAM pour avoir plus d’informations à ce sujet.

API (Interface de programmation d’application)

Une API c’est ce qui se traduit par le terme Anglais application programming interface. Une API est un ensemble de fonctions, de classes et de méthodes, qui permet à deux programmes logiciel de communiquer entre eux. C’est grâce à des API qu’un logiciel a les autorisations d’un autre et qu’il peut exploiter les données qui lui sont envoyées. Les APIs sont les clés qui permettent à l’internet des objets d’être compatible avec autant de cas d’usages, et à autant d’endroits différents. Grâces aux APIs, deux logiciels peuvent communiquer, les processus de transmission de données sont largement facilités.

ARCore

ARCore est une technologie de Google destinée à créer des expériences de réalité augmentée avancées et de haute qualité. La plateforme a été révélée par Google en 2017. Les expériences de réalité augmentée qui peuvent être créées ont l’avantage de poser des repères dans l’espace pour intégrer les mouvements dans son déplacement. Les 3 piliers de la technologie sont le tracking de mouvement, la compréhension environnementale et l’estimation de la luminosité. Pour plus de renseignements rendez-vous sur le site qui lui est dédié.

ARCore SDK pour Unity

Il s’agit d’un kit de développement logiciel. Ce kit permet le développement d’applications de réalité augmentée pour les appareils Android ou ARCore.

ARKit

ARKit c’est la plateforme de réalité augmentée créée par Apple. On le voit depuis des années, l’entreprise exploite de plus en plus cette nouvelle technologie. elle l’a même implémentée dans les applications préinstallées de ses appareils. 

L’ARKit c’est une caisse à outils pour créer des expériences de réalité augmentée sous le système d’exploitation IOS. Il y a quelques années Apple a fait l’acquisition de 3 entreprises importantes que sont Primesense en 2013, Metaio en 2015 puis Sensomotoric Instruments. On voit aujourd’hui que ce sont grâce à de telles acquisitions que la technologie d’ARKit a vu le jour.

Big Data

On appelle Big data, la capacité à recueillir, stocker et traiter des données en masse. En traduction littérale, on le dirait “grosse donnée”. C’est l’ensemble des données collectées, si volumineux qu’il dépasse les capacités de traitement et de compréhension que nous avons aujourd’hui. Un des enjeux de l’industrie 4.0 est justement de pouvoir mieux les comprendre pour les utiliser et les traiter. C’est grâce à toutes ces données et leur traitement qu’on arrive à des avancées telles que le machine learning, la maintenance préventive, le deep learning…

Capture de réalité mixte (MRC)

Hololens offre à ses utilisateurs la capacité de prendre des captures de leur expérience en réalité mixte. La capture peut-être une photo comme une vidéo. Cette technique permet de capturer des moments importants pour les partager à d’autres. Elle permet de montrer ce qu’on voit à travers notre casque de réalité mixte en dehors d’un casque, par le biais d’une capture.

Pour plus d’informations sur les avantages de la capture de réalité mixte, nous vous invitons à vous référer au site de Microsoft.

Casque (écran monté sur la tête ou HMD)

On parle en général de casque de réalité virtuelle, réalitée augmentée, ou mixte. Ce sont des casques qui se tiennent sur la tête et qui couvrent principalement les yeux  des utilisateurs. Ils sont plus proche d’une grosse paire de lunettes que d’un casque d’ouvrier comme on a l’habitude d’en voir.

Eh général ces casques contiennent des lentilles ou des écrans qui servent à créer des expériences sur mesures pour l’utilisateur. Un casque de réalité mixte va par exemple superposer des images à la réalité, devant les yeux de celui qui le porte. Il verra donc une réalité enrichie par des informations supplémentaires.

Champ de vision

Le champ de vision représente l’espace visuel qu’un oeil regardant droit devant lui peut voir. Lorsque l’oeil fixe un point devant lui, il est capable de voir ce qui l’entoure dans une proportion limitée de l’espace. Cet espace visible est appelé champ de vision ou champ visuel.

Champ de vision (FOV ou Field of View)

On en parle beaucoup avec les casques de réalité virtuelle. L’une des composantes fondamentales pour que l’expérience soit la plus immersive possible est la paire de lentilles. 

Plus le champ de vision de l’utilisateur est large et plus il a une impression d’immersion complète. C’est là que le champ de vision intervient. Les humains ont ce qu’on appelle, le FOV binoculaire. C’est à dire que leurs yeux combinent deux champs de vision ce qui permet d’élargir le champ de vision entre 200 et 220 degrés. 

Pour les casques de réalité, le FOV dépend de la lentille et c’est là tout l’enjeu de la technologie. Il s’agit d’avoir un champ de vision immersif et de haute qualité. D’où l’intervention fréquente de ces termes dans leurs paramètres.

Cloud computing

Le cloud computing est une technologie qui permet de stocker les données sur internet plutôt que sur un disque dur de l’ordinateur. On les stock à distance plutôt qu’en local. Le cloud computing est la nouvelle manière de stocker des données pour le 21ème siècle. L’entreprise qui l’utilise n’a plus besoin d’investir dans son propre matériel de stockage, et elle s’affranchit aussi de sa maintenance.

Cobotique

La cobotique désigne l’interaction et la collaboration homme-robot. C’est la collaboration entre homme et robot en vue d’atteindre un objectif. Si on retire l’une de ces 2 composantes, il ne s’agit plus de cobotique. 

On appelle Cobot, le robot qui assiste l’homme dans son travail. Il permet de supprimer certaines tâches, d’en automatiser d’autres et de décharger l’opérateur de tâches complexes et laborieuses. Ces apports permettent à l’opérateur de se focaliser sur les tâches à plus forte valeur ajoutée.

Commande numérique

La commande numérique est un ensemble Software ou Hardware. Elle permet de programmer la gamme d’usinage et de contrôler la machine-outils pour automatiser la fabrication d’une pièce.  Par extension, on appelle commande numérique toute l’armoire de commande qui reçoit les plans de fabrication sous formes de données issues d’un ordinateur.

Aujourd’hui on désigne quelquefois la machine complète qui utilise un tel dispositif. Par exemple une fraiseuse serait renommée fraiseuse à commande numérique si ses mouvements ne sont pas contrôlés manuellement mais le sont numériquement.

Conception assistée par ordinateur (CAO)

La CAO intègre l’ensemble des logiciels et des techniques géométriques permettant de tester, concevoir et réaliser des produits manufacturés. On utilise le modèle CAO dans la mécanique, l’électronique, l’électrotechnique et dans bien d’autres domaines. 

Même si on confond CAO et DAO (dessin assisté par ordinateur), les deux technologies sont profondément différentes. 

Beaucoup de logiciels de CAO sont disponibles en open source, en voilà les principaux :

  • Art of Illusion
  • Blender
  • FreeCAD
  • ImplicitCAD
  • QCAD
  • pythonOCC
  • OpenCASCADE

La CAO est très utilisée dans toute le monde industriel mais elle est appelée à évoluer avec la quatrième révolution industrielle que nous vivons. Des technologies telles que la réalité augmentée modifient légèrement les façons de procéder traditionnelles.

Contrôle non destructif

Le contrôle non destructif ou CND, est l’ensemble de méthodes qui permettent d’évaluer l’état d’intégrité d’une structure sans la dégrader. On parle quelquefois du contrôle non destructif avec les expressions d’examen non destructif (EDN) ou d’essai non destructif.

Pour établir un contrôle non destructif de nombreuses méthodes existent telles que :

  • L’émission acoustique
  • L’étanchéité
  • La radiographie
  • Les ultrasons
  • L’examen visuel
  • La thermographie …

CPU (ou "Unité de traitement informatique")

L’unité CPU est l’autre côté de ce qu’on appelle la RAM. La RAM c’est la mémoire vive d’un ordinateur, tandis que le CPU est “le goulot de la RAM”. 

En bref, c’est le CPU qui va gérer le débit à la sortie de la RAM. Si vous avez une grosse RAM, puissante, mais un CPU faible, toute la capacité de votre RAM ne sera pas exploitée. Le CPU doit être en relation avec la RAM pour que le tout soit équilibré.

Cyber-maladie "maladie de la réalité virtuelle", ou "maladie de la simulation")

Vous connaissez le mal des déplacements ? C’est la sensation qui intervient lorsque votre corps est en mouvement alors que votre cerveau à l’impression qu’il est immobile. Il y a un décalage entre les faits réels et les faits perçus. Ce décalage est à l’origine de la sensation de mal-être qui intervient rapidement.

La maladie de la réalité c’est l’exact inverse de ce procédé. Il s’agit de la situation dans laquelle votre corps est immobile pendant que votre cerveau le voit bouger. Pendant une expérience avec un casque de réalité virtuelle, un nouvel environnement se crée. Vous pouvez vous déplacer et interagir virtuellement avec la situation, mais votre corps physique, lui, ne se déplace pas.

Il se crée alors un décalage de perception entre le corps et la perception cérébrale, qui peut causer des maux de tête et d’autres symptômes. Il s’agit pour les ingénieurs de trouver une solution à ce problème pour éviter le rejet psychologique de la technologie.

Certains pensent qu’avec l’accoutumance les symptômes disparaîtront, nous n’avons pas encore de certitude de la supposition. Seul le temps nous le dira.

Distance interpupillaire (IPD)

La distance interpupillaire est la distance entre les 2 pupilles d’un utilisateur donné. Cette distance sert de mesure de base pour régler les lentilles du casque pour chaque utilisateur. La notion d’IPD est très présente dans tout le domaine de la vision et elle ne fait pas exception au domaine de la réalité virtuelle, augmentée ou mixte.

L’objectif est d’adapter l’expérience aux utilisateurs, la distance interpupillaire est un critère très important pour cela.

Divertissement immersif / Hyper-réalité

Un divertissement immersif est un divertissement qui combine des éléments réels à des expériences en réalité virtuelle. Il s’agit d’améliorer un divertissement en ajoutant de la crédibilité par le biais de sièges mobiles, par le biais d’odeurs projetées ou par le biais de d’autres suppléments.

De nombreux parcs d’attractions ou de cinémas utilisent des expériences de divertissement immersif pour améliorer l’expérience utilisateur de leurs clients. Nous vous invitons à regarder la description fournie par le parc du Futuroscope sur l’une de ses activités. Vous comprendrez ce qu’est précisément une expérience de divertissement immersif.

Expériences Immersives

Le terme est très généraliste, il peut être utilisée pour des sites web comme pour des expériences avec des technologies telles que la réalité augmentée, la réalité virtuelle ou la réalité mixte.

L’objectif d’une expérience immersive est de plonger l’utilisateur dans un nouvel univers, de lui faire oublier la pure réalité pour qu’il soit entièrement dans l’expérience. Une expérience immersive est une expérience ou l’utilisateur cesse de se rendre compte de son propre état physique. Plus une expérience immersive est avancée et plus l’utilisateur perd la notion de pur réalisme, plus il plonge dans l’univers fictif qu’il a devant lui.

Fab Lab (Fabrication Laboratory ou Laboratoire de fabrication)

Un Fab Lab est un laboratoire de fabrication dans lequel on trouve toutes sortes d’outils à disposition. Il s’agit d’un lieu ouvert au public, ouvert à tous ceux qui désirent passer de la phase de concept au prototypage, du prototypage au développement et du développement au peaufinage.

Les Fablabs sont un réseau mondial de laboratoires qui permettent à n’importe qui de doper sa productivité en ayant accès à des outils de fabrication numérique. Les Fablabs tiennent leur nom de la chart des Fablabs rédigée par le MIT (Massachusetts Institute of Technology). Tout laboratoire ne peut donc pas être appelé ainsi.

Fabrication additive

La fabrication additive désigne les procédés de fabrication par ajout de matière. Elle s’oppose à la fabrication soustractive dans laquelle on préfère retirer de la matière. On parle aussi de fabrication en 3D pour la fabrication additive. Les imprimantes 3D en sont le parfait exemple.

La fabrication additive englobe d’autres termes telles que la fabrication rapide, ou le prototypage rapide, la fabrication numérique directe ou encore fabrication par couches.

Gestion de la production assisté par ordinateur

Un logiciel de gestion de la production assisté par ordinateur, est un programme de gestion qui gère toutes les activités de production. Un tel logiciel permet à une industrie de gérer de manière totalement automatisée ses processus de fabrication, depuis un ordinateur. 

Qu’il s’agisse de la gestion des stocks, des achats, des commandes ou du planning de production, un logiciel de GPAO permet de gérer un grand nombre d’activités. 

GPU (ou "Unité de traitement graphique")

Ce qu’on appelle GPU est traduit en Français par processeur graphique (de l’anglais Graphics Processing Unit). Il s’agit d’un circuit intégré présent sur la majorité des cartes graphiques, qui assure les fonctions de calcul et d’affichage.

On les trouve dans presque tous les appareils qui ont une demande d’affichage. Que ce soit dans les appareils mobiles, les postes de travail ou les consoles de jeu, le GPU est toujours présent. Très peu d’entreprises produisent des GPU, les plus connues sont Intel, NVIDIA et AMD.

C’est grâce au processeur graphique que les expériences en 3D sont supportées. Ils sont très demandés par les utilisateurs de réalité augmentée, virtuelle ou mixte.

Haptics ("Touch Feedback")

Un dispositif haptique stimule nos sens et permet à un utilisateur de modeler, déplacer, concevoir des choses, avec un ressenti tactile et un retour de force.

L’avantage d’une telle technologie est qu’elle permet de pousser encore plus loin une expérience immersive traditionnelle. De nombreux jeux intègrent des vibrations aujourd’hui, certains intègrent même des baies de haut parleur à ultrasons qui servent à projeter des textures dans l’air.

L’objectif d’un dispositif haptique est d’ajouter des éléments de crédibilité aux situations virtuelles. Ces dispositifs sont utilisés dans de nombreux domaines telles que l’éducation, le divertissement et la conception.

Images par seconde ("FPS")

On appelle ça le frame par seconde, autrement dit, le nombre d’images par seconde. Ce paramètre est très important dans tous les univers régis par la vidéo parce qu’il définit la fluidité d’écoulement des images.

Un FPS faible signifie qu’il y a peu d’images par seconde et que les mouvements risquent d’être saccadés. Plus le nombre d’images par seconde est élevé et plus l’image semble fluide et continue parce qu’elle arrive à représenter toutes les phases d’un même mouvement.

Dans un technologie telle que la réalité virtuelle, le paramètre est d’une extrême importance parce qu’il définit toute la qualité de l’expérience. C’est grâce à la fluidité de l’expérience que les utilisateur éviteront le “mal de situation” que peuvent causer des images lentes.

Sur le marché on trouve des casques de réalité augmentée entre 60 et 90 images par secondes. Mais pour que le casques aient une résolution optimale, il faudra opter pour un casque de plus de 90 images par secondes. S’il s’agit d’une expérience sur un ordinateur, une tablette ou un smartphone, 60 images par secondes feront l’affaire.

Infrastructure de la 5eme génération

Ce terme désigne la prochaine génération de réseaux mobiles qui succèdera à la 4G vers 2020. Même si aujourd’hui le réseau 4G est efficace, il ne suffira pas dans les années à venir. En effet, avec les demandes venant de l’internet des objets, du machine learning, de l’intelligence artificielle et du M2M (machine to machine), la 4G ne suffira plus à répondre aux besoins des clients.

La cinquième génération de réseaux mobiles, assurera une couverture plus large et plus homogène. Elle répondra aussi aux défis d’efficacité énergétique et aux enjeux importants de l’industrie 4.0.

Internet des objets

L’internet des objets regroupe tous les objets qui ont leur propre identité numérique et qui sont capables d’interagir les uns avec les autres. Selon l’Union internationale des télécommunications, l’Internet des objets (IdO ou IOT) est une « infrastructure mondiale pour la société de l’information, qui permet de disposer de services évolués en interconnectant des objets (physiques ou virtuels) grâce aux technologies de l’information et de la communication interopérables existantes ou en évolution ».

Le big Data dont nous avons parlé précédemment, découle justement de l’internet des objets. En effet, c’est grâce à la présence de nombreux capteurs connectés sur les machines industrielles, que nous collectons d’innombrables données.

C’est aussi grâce à l’internet des objets que nous pouvons les stocker et les analyser et les utiliser rapidement.

Internet industriel des objets

L’internet industriel des objets reprend la définition précédente de l’internet des objets, mais cette fois, elle s’applique précisément au monde de l’industrie. Il s’agit d’interconnecter les capteurs, les machines, les systèmes informatiques et les équipements industriels.

C’est grâce à l’internet industriel des objets que nous arrivons à des automatisations de processus très poussées. L’internet des objets appliqué à l’industrie, lui permet de progresser plus rapidement, d’avoir une production de meilleure qualité, d’avoir une meilleure sécurité et un rendement sur investissement élevé.

Aujourd’hui, toutes les entreprises ont besoin de l’internet des objets.

Latence

La latence est la vitesse à laquelle le monde virtuel, en réalité augmentée ou mixte, répond à l’utilisateur. De même que la notion de FPS, il s’agit d’avoir un temps de latence faible pour que la réactivité soit maximale.

Les expériences de réalité augmentée et mixte sont utilisées dans l’industrie Française. Il faut donc qu’elle soient très réactives pour être disponibles aux bons moments sans se faire attendre. Moins il y a de latence et plus l’expérience est confortable.

Réduire au maximum le temps de latence est un enjeu important des développeurs XR. En règle générale elle est inférieure à 20 millisecondes.

Lean manufacturing

Le lean manufacturing pourrait se résumer par l’expression : faire plus avec moins. Il s’agit en effet, d’avoir des moyens de fabrication sans gaspillage. Du lean manufacturing découlent des efforts constants pour éliminer le gaspillage dans les processus de conception, fabrication, distribution et service à la clientèle.

L’objectif n’est pas de sacrifier la valeur de chaque service au profit de l’élimination des déchets. Il faut rendre évident ce qui ajoute de la valeur et réduire tout le reste.

Machine learning

Le machine learning est une technologie basée sur les capacités de l’intelligence artificielle. Elle permet à des ordinateurs d’apprendre au fur et à mesure du temps. Pour qu’un ordinateur puisse apprendre de lui même, il a besoin d’un grand nombre de données qui proviennent du big data et sont récoltées grâce à l’internet des objets.

Toutes ces technologies se recoupent et travaillent ensemble. La technologie du machine learning permet d’utiliser le big data avec beaucoup plus d’efficacité et de précision. Elle permet d’établir des prédictions sur tel ou tel comportement d’un appareil, en utilisant les données qu’il a fournies depuis le départ. Le machine learning extrait de la valeur en provenance de sources de données massives sans avoir besoin de l’intervention de l’homme.

Machine to Machine

Le machine to machine est souvent dit M2M. Il s’agit en fait de la communication entre 2 machines. Le M2M désigne l’ensemble des technologies et des solutions, permettant à deux appareils, deux machines de communiquer entre elles de manière automatique.

Grâce à cette technologie, de nouveaux services émergent, et de nombreuses tâches sont automatisées. La technologie fonctionne spécifiquement les réseaux publics tels que le GPRS et l’UMST ou des liaisons sans fil telles que le wifi, bluetooth et le RFID, mais cette fois il s’agit de connectivité à plus courte distance.

En France, le marché de communication inter machine est en pleine essor depuis plus de 10 ans. Et avec l’industrie 4.0, la communication M2M est poussée dans ses plus hautes fonctions.

Maintenance prédictive

La maintenance prédictive est un terme généralisé pour désigner la maintenance préventive conditionnelle. Il s’agit d’un type de maintenance capable de prévoir les pannes futures avec une haute précision. Il ne s’agit pas de prédiction mais de prévision, basée sur l’analyse des données récoltées depuis des années.

Nous vous invitons à lire l’article que nous avons écrit sur le sujet pour vous aider à mieux comprendre l’importance de la maintenance prédictive dans l’industrie. Selon la norme NF EN 13306 X 60-319, la maintenance prédictive est définie comme une « maintenance conditionnelle exécutée en suivant les prévisions extrapolées de l’analyse et de l’évaluation de paramètres significatifs de la dégradation du bien.

Renouveler les processus de maintenance est un des grands enjeux de l’industrie 4.0 et c’est grâce à des avancées telles que ce type de maintenance que nous y parvenons. Les bénéfices apportés par la maintenance prédictive sont nombreux. Elle permet d’éviter les pannes, et de les prévenir au moment où le ratio entre proximité de la panne et économies est au maximum. Grâce à la maintenance prédictive, les stocks de rechange sont aussi bien mieux gérés.

OpenVR SDK / API

OpenVR est un SDK et une API développé par Valve. L’objectif de ce kit de développement est de supporter le Stream VR (casque HTC Vive) et d’autres casques de réalité virtuelle. Ce kit fournit une API C++ et des plugins d’intégration pour des moteurs de jeux spécifiques (comme par exemple Unreal et Unity).

OpenXR

Anciennement connu sous le nom de VRSI (VR standard initiative), OpenXR est un standard de Khronos Group. Il est composé d’une API pour les développeurs et d’une couche “d’abstraction matérielle” qui permet de travailler avec l’AR et la VR sur n’importe quel appareil. L’objectif est de supprimer la multiplicité des devices pour ces différentes technologies.

Grâce à l’Open XR on a un écosystème plus robuste et plus avancé permettant de travailler sur les deux technologies.

Plugin ARKit

Il s’agit d’un plugin d’Unity qui permet de créer une application ARKit fonctionnelle. Des centaines d’applications ARKit utilisent déjà ce plugin sur l’Apple Store. Il s’agit d’un plugin qui inclut de nombreuses fonctionnalités telles que le suivi des visages, l’estimation de la lumière,  le suivi du monde et bien d’autres.

En résumé, il permet le développement plus accessible d’applications de réalité augmentée pour IOS.

Product Life management (PLM)

Le PLM est l’ensemble de méthodes, concepts et outils logiciels, permettant une création des produits industriels, et leur entretien tout au long de leur cycle de vie.

Programmation Réalité Virtuelle / Réalité Augmentée

La programmation d’expériences de réalité virtuelle ou de réalité augmentée est comparable à d’autres types de programmation traditionnels.Près de 30% des développeurs utilisent le langage de programmation C#, 16% le C++ et le C, et 15% le java. Il n’y a pas de langage spécifique à la programmation d’une expérience de réalité modifiée. 

Les outils déjà existants fonctionnent parfaitement. Une bonne expérience de codeur est tout de même nécessaire, programmer de la réalité augmentée n’est pas à la portée de tous.

Radio Frequency Identification (RFID)

Le terme le plus utilisé est surtout RFID. En fait, il s’agit d’une technologie qui permet de mémoriser et de récupérer des informations à partir de marqueurs nommés “radios-étiquettes”, “puces RFID”, “RFID transponder” ou même “RFID tag”.

La technologie permet de scanner des produits rapidement, sans avoir à les voir ni à les toucher. La puce de géolocalisation radio peut se présenter sous différentes formes comme par exemple sous la forme d’étiquettes.

Pour que les informations soient lues, il faut un lecteur de puces RFID. A partir du moment ou une puce se trouve dans son champ d’émission, le lecteur accède aux informations de manière automatique. Un lecteur RFID peut obtenir les informations d’une puce jusqu’à 50 mètres de distance.

Réalité Augmentée (AR)

La réalité augmentée est une technologie qui permet de superposer des éléments virtuels à la réalité physique par le biais de lunettes, de tablettes ou de smartphones. Grâce à la réalité augmentée l’utilisateur peut donc interagir à la fois avec le monde réel mais aussi avec les éléments qui lui sont ajoutés.

Les casques les plus connus qui permettent de vivre des expériences de réalité augmentée sont Hololens de Microsoft et les Google Glasses de Google. Dans l’industrie la réalité augmentée est très utilisée surtout dans des domaines de maintenance où elle permet d’afficher les procédures de maintenance en superposition aux machines à réparer.

On l’utilise dans la conception pour créer des prototypes grandeur nature, dans l’éducation pour reproduire des cas d’études précis, et dans bien d’autres domaines. Quand la réalité augmentée est combinée à de la réalité virtuelle, on l’appelle alors réalité mixte.

Réalité Mixte

La réalité mixte désigne le procédé de visualisation par le biais d’un casque de réalité, qui combine réalité virtuelle et réalité augmentée.  Malgré la combinaisons des deux technologies, la réalité mixte est plus proche de la réalité augmentée que de la réalité virtuelle. A la différence de la réalité virtuelle, la réalité mixte fonctionne grâce à un casque qui utilise une visière transparente plus qu’un écran. Sur cette visière sont projetés des éléments virtuels qui apparaissent en 3D.

Réalité virtuelle

La réalité virtuelle est une technologie qui plonge l’utilisateur dans un univers créé de toutes pièces. Cette technologie purement logicielle ne repose pas sur des éléments de réalité pure mais sur un nouvel environnement dans lequel est plongé le porteur de lunettes. 

Cette technologie simule la présence de l’homme dans un environnement totalement fictif avec lequel il peut interagir. A la différence de la réalité mixte et de la réalité virtuelle qui reposent sur des éléments réels, la réalité virtuelle en est complètement détachée.

Elle est principalement utilisée dans des activités de divertissement et de jeu, à l’inverse de la réalité augmentée et mixte qui trouvent de nombreuses utilisations professionnelles.

Render Target Array

On en parle surtout dans le domaine des graphiques informatiques 3D. Il s’agit d’une caractéristiques des unités de traitement graphique qui permet de restituer une scène 3D grâce à un tampon de mémoire qui sert de zone de dessin.

Rendu Fovéal

Il s’agit d’un terme technique en imagerie informatique qui désigne une optimisation de l’affichage graphique grâce à la biologie de l’homme. On sait que l’homme voit précisément le point qu’il regarde mais qu’à la périphérie de celui-ci les détails se font de moins en moins précis. Ce qui veut dire qu’en suivant le mouvement de l’oeil humain on peut afficher le point fixé avec une grande précision et baisser la précision des zones avoisinantes.

L’ordinateur pourra donc effectuer le rendu de la scène plus rapidement que s’il devait tout présenter avec des détails avancés. C’est une focalisation de la puissance de l’ordinateur sur les endroits les plus utiles. On peut parler d’efficience des capacités.

Robot

Un robot est un appareil automatique capable de manipuler des objets et d’exécuter des opérations. Très utilisés dans l’industrie, ils peuvent être contrôlés par ordinateurs, ou simplement par des logiciels d’intelligence artificielle.

Grâce à eux, certaines tâches sont automatisées, des techniciens sont assistés, des processus sont simplifiés et des domaines à risques sont sécurisés. Les robots permettent à l’industrie d’avancer et de progresser plus rapidement. Ils sont indispensables.

Robot autonome

Les robots autonomes sont des machines capables de réaliser des actions de manière autonome. Ils peuvent agir sans l’intervention humaine. Très souvent les robots autonomes utilisent des programmes d’intelligence artificielle qui leur permettent de prendre les bonnes décisions au bons moments. Mais d’autres sont simplements programmés à répéter des tâches régulièrement.

Un exemple simple serait les robots ménager comme les aspirateurs autonomes capables d’aspirer des pièces automatiquement.

Taux de Rendement Synthétique (TRS)

Le taux de rendement synthétique est un indicateur chargé de donner une vision sur le taux d’utilisation d’une machine. Dans le calcul du TRS on retrouve 3 taux différents :

  • Le taux de disponibilité
  • Le taux de performance
  • Le taux de qualité

Le taux de rendement synthétique est défini par la norme NF E60 182, comme le rapport entre le temps utile sur le temps requis. C’est certainement l’un des indicateurs les plus suivis en entreprise. Il donne une vision précise et radicale de la performance.

SDK Audio Spatializer

Il s’agit d’une extension du kit de développement logiciel natif. Elle permet de modifier la manière dont l’audio est transmis d’une source audio à l’espace environnant. Le panoramique intégré des sources audio prend la source et régule les gains de contribution des oreilles gauches et droites. Ce qui veut dire qu’en fonction de l’angle entre la source et le récepteur, il est en mesure de réguler les sons et de donner des repères directionnels simples à l’utilisateur.

Six degrés de liberté (ou '6DOF')

Les 6 degrés de liberté font référence à la liberté de mouvement d’un corps rigide dans un espace à trois dimensions. Les 6 dimensions représentent les 3 dimensions de mouvement et les 3 dimensions de rotation dans l’espace. Un élément qui a 6 degrés de liberté est un élément qui peut être librement contrôlé dans ces 6 dimensions différentes.

SLAM ('Localisation et cartographie simultanées')

On utilise très souvent cet acronyme anglais pour dire localisation et cartographie Simultanée. En Anglais on le dit aussi simultaneous localization and mapping. 

Il s’agit de la technologie qui permet à un robot ou à n’importe quel véhicule autonome, de se déplacer dans un espace et de simultanément en dresser ou en améliorer la cartographie. Ce qui veut dire que la carte n’est pas nécessairement existante au départ du robot mais qu’il peut en être lui même le constructeur.

Spatial Audio (ou '3D Audio')

L’audio 3D est une manière de diffuser un son qui permet une profondeur différente et plusieurs directions perçues des sons. Grâce à l’audio 3D on arrive à créer un environnement sonore qui donne l’impression que les sons proviennent de différents endroits.

Dans le monde de la musique, l’audio 3D a complètement redéfinit l’espace sonore, permettant aux auditeurs de percevoir les sons de manière beaucoup plus détaillée.

Une société Française appelée Audio 3D a mis au point un logiciel qui permet de transformer n’importe quel son en son relief. L’audio 3D commence à s’immiscer dans tous les milieux, comme par exemple dans le cinéma. La technologie a un grand avenir.

Stéréoscopie

La stéréoscopie est une technique qui permet de distinguer des reliefs à partir d’images planes, à l’aide d’un appareil qui utilise deux objectifs différents. Pour reproduire la perception d’un relief, il faut utiliser les deux objectifs conjointement focalisés sur deux images.

C’est comme ça que sont apparus les films 3D même si on devrait les appeler films stéréoscopiques. Tout le fonctionnement de la stéréoscopie repose sur la science humaine. Les hommes perçoivent le relief une fois que le cerveau reconstitue une seule image à partir de deux perceptions venant des deux yeux. Pour recréer un relief à partir d’une image plane, c’est ce procédé qui est utilisé. On utilise la perception des deux yeux pour que la reconstitution de l’image dans le cerveau donne un effet de relief.

Suivi de l'oeil

Le suivi de l’oeil est un travail aussi appelé oculométrie. Il regroupe un ensemble de techniques permettant d’enregistrer les mouvements oculaires d’un homme. Grâce à l’eye tracking on peut mettre en évidence l’endroit où est porté le regard. La technologie est déjà utilisée dans l’armée avec les pilotes de chasse par exemple mais depuis quelques années elle est élargie au grand public.

La réalité augmentée, virtuelle ou mixte, s’appuient de plus en plus sur les avancées en matière d’oculométrie pour améliorer l’expérience utilisateur. Au sein de l’interaction homme-ordinateur, le suivi de l’oeil est un domaine très prometteur qui permettra de personnaliser l’expérience client en focalisant la qualité sous le regard des utilisateurs.

Suivi de position

Le suivi de position consiste à détecter les mouvements d’un utilisateur pour les reproduire ensuite sur un ordinateur. La technologie de suivi de position est utilisée dans des jeux grands publics pour permettre à des joueurs de faire du tennis en se déplaçant et en tapant dans la balle (virtuelle) au milieu même de leur salon.

Les mouvements sont retranscrits sur un écran et permettent au joueur d’interagir avec le jeu comme s’il en faisait partie. La technologie est utilisée dans de nombreux domaines et n’est pas propre à la réalité augmentée, virtuelle ou mixte.

Suivi du visage

Technologie qui suit certaines expressions faciales en temps réelle. Elle permet de contrôler certains éléments. Les téléphone Huawei par exemple utilisent le suivi de visage pour régler la luminosité de leurs appareils automatiquement. Quand l’utilisateur tourne le visage, la luminosité de l’écran diminue automatiquement.

Il s’agit là d’une petite fonctionnalité mais la technologie de suivi de visage peut aller beaucoup plus loin.

Système vestibulaire

Le système vestibulaire est un organe sensoriel barosensible. On le trouve dans l’oreille interne et c’est lui qui est à l’origine de la et d’équilibre. Les troubles du système vestibulaire peuvent conduire à des vertiges.

La cyber-maladie est un décalage entre les canaux visuels et le système vestibulaire. Ce décalage produit des discordances entre le perçu et le vécu réel.

Uncanny Valley

La vallée dérangeante ou la vallée de l’étrange est une théorie mise au point par le roboticien Japonais Masahiro Mori. Il s’agit de espace dans lequel les robots ressemblent de plus en plus aux hommes,mais pas encore assez pour pousser à l’illusion. Dans cet espace, les hommes réels remarquent d’autant plus les imperfections que le robot leur ressemble. La relation homme-robot n’est donc pas plus agréable avec un robot d’apparence humaine, qu’avec un robot type sans imitation de l’homme.

Les hommes jugent les défaut des robots en fonction de leur propre ressemblance. On pourrait croire que plus les niveaux de détails sont poussés et plus les hommes seraient satisfaits, mais ce n’est pas le cas. C’est pour cette raison qu’on parle de vallée dérangeante. 

En fait, on parle de la zone de détails que les hommes n’arrivent pas à accepter parce qu’ils se focalisent plus sur les imperfections que sur la ressemblance.

Mais en poussant au maximum le niveau de détail, les humains finissent par avoir un acceptation beaucoup plus grande. Il y a donc une zone d’imperfections que les hommes ne supportent pas. Mais une fois dépassée ils finissent par adhérer au robot sans se focaliser sur les erreurs de ressemblance.

Un robot sans apparence humaine est plus facilement accepté qu’un robot qui se veut être une pâle copie de l’homme. Mais une imitation passé un certain seuil de réalisme, l’acceptation finit par être plus grande.

Unité de mesure inertielle ('IMU', ou 'Odometry')

Une centrale à inertie est un équipement qui comporte 6 capteurs d’une précision météorologique. Voilà en quoi consistent les capteurs :

  • 3 gyromètres destinés à mesurer les 3 composante du vecteur vitesse angulaire.
  • 3 accéléromètres destinés à mesurer les 3 composantes du vecteur spécifique (forces des sommes extérieures autre que la force de gravitation, divisée par la masse).

Le but d’une unité de mesure inertielle est d’estimer l’orientation, la vitesse linéaire et la position d’un mobile.

La technologie est utilisé dans les suivis de tête. Si on la combine à des systèmes de suivi optique, une UMI est capable de déterminer la direction de la vue d’un casque. C’est une importante opportunité pour les technologies telles que la réalité mixte, la réalité virtuelle et surtout la réalité augmentée.

Usinage à grande vitesse (UGV)

Il s’agit d’une opération d’usinage par retrait de matière à des vitesses de coupe élevées. La vitesse de coupe est 4 à 10 fois plus élevée que lors d’un usinage traditionnel.  L’usinage à grande vitesse permet des gains importants en matière de de performances techniques et économiques.

Bien que le concept ait l’air simple, il ne s’agit pas simplement d’augmenter la vitesse de coupe. En effet, les mécanismes physiques qui interviennent sont plus complexes, et les paramètres d’usinage ont une influence sur les efforts de coupe, la puissance de l’appareil, la température limite, l’usure des outils et bien d’autres paramètres qu’il faut prendre en compte.

Les principaux avantages de l’usinage grande vitesse sont :

  • Une plus grande précision de coupe
  • Une réduction du temps de fabrication
  • Une meilleure qualité des pièces travaillées
  • L’usinage de formes plus complexes
  • L’usinage plus facile de matériaux très durs

Vidéo volumétrique

Les vidéos 3D et 360 degrés sont déjà bien avancées dans la sensation d’espace et de mouvement, mais il existe encore une limite. Cette limite c’est l’absence de volume, la non capacité de se mouvoir physiquement dans ces décors en 3D. 

Là, avec la vidéo volumétrique, le spectateur est en mesure de regarder la situation sous tous les angles. Avec une vidéo normale, on ne peut voir la scène que sous l’angle de la caméra qui l’a filmée. La volumétrie utilise tout un réseau de caméra pour capter tous les angles d’une même scène. C’est grâce à cette technologie que l’utilisateur peut par exemple s’arrêter à un moment précis de la scène et naviguer dans le volume pour en voir les moindres dimensions.

Au CES de LAS VEGAS, Intel a mis en avant la technologie à travers un stand très poussé, sous la forme d’un hommage au film Grease. La scène était occupée par des danseurs filmés sous tous les angles et le résultat était bluffant. Nous vous invitons à regarder la vidéo de Livosphère qui en présente aussi une application.

Virtualité augmentée

La virtualité augmentée est un système de réalité virtuelle dans lequel on a ajouté des éléments de réalité captés par une caméra. Dans une expérience de virtualité augmentée, l’individu peut aussi interagir avec les éléments réels qui ont été ajouté à la scène. Ce type d’expérience se situe entre réalité virtuelle, réalité mixte et réalité augmentée.

On augmente la réalité virtuelle de la même manière qu’on augmente la réalité avec la réalité augmentée.

VR cinématique

La VR cinématique est une nouvelle technologie pour les créateurs. Le secteur cinématique est particulièrement touché par toutes les technologies qui se situent autour de l’augmentation de la réalité telle que nous la connaissons.

Avec la VR cinématique, les spectateurs peuvent participer en interaction avec les histoires, ils peuvent mettre les évènements sur pause et jouer avec les éléments. Les fins des projections sont donc alternatives.

Du côté du réalisateur c’est une opportunité créative immense et du côté du spectateur un enrichissement sans précédent, et une toute nouvelle expérience.

WebAR

Le Web AR est une technologie qui met en avant des expériences de réalité augmentée à travers le web. Aujourd’hui un simple site peut produire ses propres expériences de réalité augmentée. Certains commerces proposent par exemple à leurs clients d’essayer des montres avant de les acheter.

Pour cela ils utilisent la webcam de l’ordinateur utilisé, et projettent une image avec l’objet de la vente ajouté aux éléments filmés. Un utilisateur peut donc essayer une montre à son poignet grâce à sa webcam, et voir si elle lui correspond.

Le ecommerce se projette vers une grande révolution avec cette technologie qui augmenterait le taux d’engagement des clients de plus de 30%. 

Plutôt que de télécharger une application dédiée à la réalité augmentée, plutôt que d’utiliser des casques de réalité, tout individu peut désormais vivre une expérience de réalité augmentée à partir d’un navigateur. De nombreuses marques utilisent la technologie.

WebVR

Au même titre que WebAR, il s’agit d’une technologie qui permet aux individus d’accéder à des expériences de réalité virtuelles directement depuis leur navigateur. L’objectif de la technologie est de permettre à n’importe qui d’entreprendre plus facilement des expériences de réalité virtuelles quelques soient les périphériques à disposition.

XR

La XR est l’espace technologique qui combine des éléments construits et des réalités (mixte, virtuelle, augmentée…). Dans la catégories des technologies XR on regroupe l’A(R), la V(R),la M(R) et la Réalité cinématique. Le X regroupe toutes les différentes catégories de réalités.

La XR n’est pas une technologie à elle seule mais un espace technologique qui comprend différentes modifications de la réalité. C’est un terme de grande portée, relativement flexible. On peut trouver de la XR dans tous les domaines aujourd’hui.

La XR couvre tous les logiciels, tout le matériel et toutes les méthodes qui permettent de construire la VR, la CR, l’AR et la RM.

Vidéo 360

La vidéo 360 est aussi appelée vidéo immersive dans le sens où elle permet de rentrer pleinement en immersion dans l’univers présenté. La vidéo 360 existe depuis plusieurs années maintenant, elle utilise plusieurs caméras pour filmer tous les angles de vue possible à partir d’une même position.

Pour le spectateur, la technologie lui permet de tourner la tête dans toutes les directions en gardant toujours un visuel sur un aspect de la scène. Toutes les vidéos prises par les différentes caméras sont combinées en une vidéo sphérique qui permet au spectateur de plonger dans l’univers qu’il a en face de lui.

Pour le cinéma la technologie est une grande opportunité d’amélioration.