Gérer la sécurité incendie dans un bâtiment en réalité augmentée

formation_extincteur_1360923416

Bonjour à toutes et à tous,

Nous sommes trois élèves de Polytech Angers, Kylian, Mattéo et Melvin, et cette année nous avons été amenés à réaliser un projet sur un semestre entier. Nous avons alors dû trouver une idée utile mêlant sécurité incendie et réalité augmentée.

– But de notre projet

Lors de nos recherches préliminaires, nous avions remarqué que bien souvent un début d’incendie peut être éteint très rapidement si les personnes autour savent quoi faire avec le matériel mis à disposition dans les établissements recevant du public. Malheureusement on s’est aussi rendu compte, que bien souvent les personnes ne sont pas formées et ne savent pas réagir face à un début d’incendie. C’est pourquoi, nous avons eu l’idée de mettre à disposition une application simple d’utilisation qui ne permettrait rien qu’en scannant les panneaux ou pictogrammes des moyens de sécurité incendie, d’apprendre à les utiliser. Cela permettrait alors d’éviter que des incendies importants se déclarent.

– Travail réaliser

Travail préliminaire

Dans un premier temps, avant de nous lancer dans notre projet, il a fallu en apprendre plus sur la sécurité incendie et sur la réalité augmentée, c’est pourquoi nous avions fait plusieurs recherches sur ces deux thèmes, cela nous a pris environ 3 semaines afin de prendre en main le logiciel unity/vuforia qui va nous permettre de faire l’application mais aussi d’acquérir un minimum de connaissance sur les moyens de sécurité incendie dans les établissements recevant du public.

La deuxième étape de notre projet a été de nous rendre dans les locaux de Polytech Angers, pour ainsi voir les différents moyens de sécurité incendie (extincteur, trappe de désenfumage, espace d’attente sécurisé, etc.) que possédait Polytech. Cela nous a donc permis de déterminer quels moyens nous expliciterons dans l’application mais aussi de prendre des photos des moyens de sécurité incendie afin d’en faire des targets qui permettront à l’application de reconnaître les différentes cibles et ainsi d’afficher les bonnes informations.


Création de l’application

-Création des targets:
Tout d’abord, il a fallu créer les targets des moyens de sécurité incendie à partir des photos que nous avions prises à Polytech Angers, il a donc fallu choisir les bonnes photos pour avoir le plus de détails possibles et les recadrer, et ensuite dans le logiciel Unity/Vuforia créer des marqueurs grâce au texte permettant à l’appareil photo de bien scanner la target (plus il y a de détails dans la target, mieux elle sera reconnue).

– Insertion des vidéos et informations sur les targets:
Dans un deuxième temps, il nous a fallu sélectionner les vidéos et informations qui apparaîtront lorsque les cibles seront scannées. Il fallait alors que ces informations soient à la fois courtes mais aussi très instructives afin que les personnes les comprennent correctement. Une fois choisies, il fallait insérer les vidéos et informations sur les différentes cibles, c’est là que les premiers problèmes sont apparues. En effet, le premier problème était que la vidéo se lançait sans même que scannions la cible et notre deuxième problème était qu’il y avait un décalage entre le son et l’image. Nous avons donc dû régler ce problème grâce à deux codes : le premier permet de lancer automatiquement la bonne vidéo sur la bonne target et lorsque celle-ci est finie de revenir au début et le deuxième code quant à lui sert à ne pas avoir de décalage entre l’image et le son.

-Création de l’application Android:
Enfin, la dernière partie a été de pouvoir transférer l’application que nous avions créée sur ordinateur (windows) en la mettant sous format Android pour pouvoir l’utiliser sur notre téléphone. Cette partie a été assez longue, en effet, il a fallu que nous fassions quelques recherches pour trouver les bonnes explications qui nous permettent de transférer l’application sur notre téléphone. Après avoir trouvé la manières, nous sommes donc aller dans les paramètres de l’application sur Unity pour la faire passer de Windows à Android. Une fois les paramètres réglés, nous avons aussi dû paramétrer notre téléphone en le mettant sous mode développeur pour permettre de transférer l’application au téléphone (android) via USB. Lorsque l’application fut transférée, il ne restait plus qu’à la tester sur différentes targets.

-Test de l’application:
Pour finir, nous avons testé l’application du téléphone sur plusieurs targets, nous avons alors pu voir que notre application fonctionnait très bien et que les vidéos fonctionnaient ainsi que les fiches d’information. Voici quelques exemples :

– Problèmes rencontrés

Lors de notre projet, nous avons rencontré plusieurs difficultés, en effet, nous sommes partis sur un projet avec de la réalité augmentée, un domaine que personne ne connaissait contrairement à la sécurité incendie où Kylian connait le domaine vu qu’il est sapeur-pompier volontaire. Cela a été notre plus grande difficulté puisqu’il a fallu apprendre à utiliser ce nouveau logiciel, apprendre de nouvelles bases pour pouvoir produire une application qui fonctionne et qui soit utile. Comme nous l’avons expliqué dans les étapes de travail, nous avons rencontré plusieurs problèmes lors de la création de l’application, nous avons su les résoudre grâce à des explications trouvées sur internet mais aussi grâce à des professeurs de Polytech Angers qui nous ont aidés.

– Conclusion

Nous pouvons dire que ce projet nous a été très utile, en effet, il nous a permis de voir la complexité à organiser, à communiquer sur un tel projet, cela nous sera très utile pour nos futures années d’étude et aussi pour notre futur métier d’ingénieur où nous savons que nous allons devoir travailler en groupe sur d’importants projets. De surcroît, ce projet nous a aussi permis de découvrir de nouveaux domaines qui sont très intéressant mais surtout d’actualité et qui dans le futur seront de plus en plus utilisés dans notre vie quotidienne, surtout la réalité augmentée. Enfin, nous pouvons dire que nous sommes fiers de notre projet, premièrement car il fonctionne très biens (et pas que dans Polytech Angers, nous l’avons testé à un aéroport) et deuxièmement car nous pensons qu’il peut être très utile pour la population afin d’éviter d’importants incendies pouvant créer des pertes humaines et matérielles.
Nous pensons déjà à d’autres améliorations comme le fait de créer nous-mêmes les vidéos mais aussi d’augmenter le nombre de targets en incluant du secourisme (même si nous avons déjà mis dans l’application l’utilisation d’un défibrillateur).

Nous voulons remercier notre professeur référent monsieur CAPELLE qui nous a laissé une totale autonomie et liberté dans ce projet, et aussi monsieur RICHARD qui nous a beaucoup aidé lorsqu’on rencontrait des difficultés.

Merci beaucoup d’avoir lu notre article, nous espérons que cela vous a permis d’apprendre de nouvelles choses et qu’il vous a plu !!!

C’était Kylian, Melvin et Mattéo.

Pour plus d’information, nous vous mettons des vidéos qui expliquent plus précisément notre travail:

Création des targets:

Insertion des images et vidéos:

Création de l’application Android:

Virtual Plantation

Bonjour, nous sommes deux étudiantes en deuxième année à Polytech Angers. Lors de notre 4ème semestre, nous nous sommes intéressées à la réalité virtuelle. En effet, nous avons réalisé le projet Virtual Plantation avec l’aide de notre professeur M. Richard.

Qu’est-ce que le projet Virtual Plantation ?

Ce projet se réalise sur Unity3D et Visual Studio. Unity3D est un logiciel qui permet de créer des jeux en 2D et en 3D. Visual Studio sert à programmer les scripts que nous pouvons intégrer dans Unity3D. Ces outils de réalité virtuelle vont nous permettre de concevoir et développer une simulation où nous sommes en immersion dans un champ de tournesol pour identifier certaines pathologies. Ce projet peut contribuer au développement et à l’innovation dans le domaine de la biologie.


unity-masterbrand-black

Le but de ce projet est de simuler un champ de tournesol contenant des tournesols sains et des tournesols malades, afin de déraciner et dénombrer les tournesols malades. Cette simulation peut s’adapter à tous types de plantes.

  • Design de notre scène
  • La première étape de notre projet était la création de la scène. Nous voulions créer une scène qui se rapprochait au mieux de la réalité. Nous avions donc imaginé des montagnes, traversées par un cours d’eau et une petite ferme située en bas des montagnes.


    Capture2

    Pour commencer, nous avons créé des reliefs afin de créer des montagnes et des collines. Ensuite, nous avons créé une sorte de cours d’eau en y ajoutant de la végétation, comme des roseaux. Puis nous avons créé un coin habitations, c’est-à-dire que nous avons téléchargé, dans l’assetStore d’Unity3D, des préfabs qui sont des éléments que nous plaçons dans la scène. Nous avons donc inséré un moulin à vent, deux granges, un puit, un pont, un château d’eau et un tracteur.
    habitation

    Pour finir le design de la scène, nous avons ajouté des arbres, de la pelouse et des buissons.
    Cette partie graphique est intéressante, on conçoit la scène comme on le souhaite. Les graphismes ont un rôle très important dans les jeux vidéo.

  • Réalisation de notre champ de tournesol
  • Bien sûr, l’élément principal de notre projet est le champ de tournesols !
    Pour faire apparaître un champ de tournesol, nous avons dû insérer un script. Nos scripts étaient programmés en langage C, nous pouvions les modifier à l’aide de VisualStudio.

    Dans le script, nous choisissons l’emplacement du champs, l’orientation ainsi que le nombre de tournesols malades et sains à placer. Nous devions respecter un pourcentage de 20 % de tournesols malades. Ensuite, en mode play, nous pouvions observer cela :

    Capture

    Mais rappelons que le but du projet était également de pouvoir les déraciner et de les dénombrer !

    Pour cela, nous avons créé un script permettant de déraciner et de compter le nombre de tournesols déracinés. Pour déraciner les tournesols, il suffit d’ajouter dans le script, une force selon l’axe y assez grande qui va permettre de projeter le tournesol.

    déracine

  • Ajout de champs de maïs et de marijuana et création d’un menu
  • Après avoir répondu aux attentes du projet, nous avions encore du temps. Nous avons donc pu créer deux autres champs : un champ de maïs et un champ de marijuana. Tous deux ont été créés selon le même principe que le champ de tournesol. C’est-à-dire que ces champs comprennent des plantes saines et des plantes malades. Nous avons également fait en sorte de pouvoir déraciner ces plantes ainsi que les compter.
    3champ

    Pour finir, nous avons pu améliorer notre scène avec certains détails, nous avons ajouté une musique de fond ainsi qu’un bip à chaque fois qu’une plante est déracinée.

    Nous avons également créé un menu et un bouton permettant de modifier le volume de la musique.

    menu

    Conclusion :

    Ce projet nous a fait découvrir, à toutes les deux, des nouveaux logiciels. Nous avons appris à manier Unity3D. Malgré plusieurs difficultés rencontrées, nous avons pu répondre aux attentes du projet. De plus, nous avons pu nous initier à la création de jeu vidéo.

    Ce projet a été très enrichissant et bénéfique pour nous, d’une part le coté créatif mais aussi les programmes qui se cachent derrière tous ces graphiques.

    Virtual Mimic !

    Bonjour à tous !

    Dans le cadre de notre classe préparatoire intégrée à Polytech Angers, nous avons eu l’opportunité de réaliser des projets de groupe. Au résultat des choix, notre binôme s’est constitué de Clotilde HAS et Noémie PAPIN.

    L’une étant intéressée par la simulation, l’acquisition de compétences sur un nouveau logiciel; l’autre portant de l’intérêt à comment l’ingénierie intervient dans le monde de la santé : il s’agit d’une collaboration poly’valente.

    N’oubliez pas : [M.De Montaigne]

    “La vie n’est que mouvement”

    Objectif et Présentation :

    L’objectif de « Virtual Mimic » est de nous initier au développement d’une plateforme innovante, destinée à la rééducation de patients cérébrolésés. Ce sont des victimes de lésions cérébrales consécutives à un traumatisme crânien grave, un accident vasculaire cérébral ou d’une autre origine (infectieuses, tumorales, …).
    Notre projet s’inscrit donc dans le milieu médical et plus particulièrement dans l’utilisation des technologies interactives et ludiques appliquées à la santé. L’approche proposée repose sur la reproduction de gestes statiques et/ou dynamiques par le patient.
    Pour ce faire, il est proposé d’utiliser des outils et techniques de réalité virtuelle. Notre travail consistait à développer une application, sur le logiciel Unity 3D à l’aide du langage C# (C sharp).

    Ce projet comportait majoritairement deux grands points. Devant respecter l’utilisation d’avatars animés, provenant du site Mixamo, et les adapter en fonction des besoins des patients, notre travail a vu naître deux sous-projets orientés vers deux types de population : un pour les adultes, l’autre pour les enfants.

    Illustration du projet :

    • Menus & Univers :
    • Voici un rendu de nos menus respectifs. Le but étant de nous plonger directement dans l’univers:

      Capture du menu de Clotilde

      Capture du menu de Clotilde

      Capture du menu de Noémie

      Capture du menu de Noémie

      Remarque : Malgré tout, l’environnement de la simulation est identique sur nos deux projets (forêt visible en arrière plan du menu de Noémie). Celui-ci était adaptable à nos besoins et était gratuit 🙂

      Chaque bouton est utilisable et redirige vers la scène de notre choix. Chaque scène correspond aux différents modes proposés.

    • Modes disponibles
    • Les animations pour chaque personnage sont représentées par les blocs gris ci-dessous. Lorsqu’une animation est jouée, elle passe en orange. C’est par l’appui sur une touche (ou un bouton sur l’écran) qu’on passe à l’animation de notre choix. On peut les enchaîner indéfiniment et y revenir comme on veut.

      Animator sous Unity 3D

      Capture de l’Animator

      Il existe un animator controller (ensemble d’animations par blocs) par mode proposé. Clotilde a orchestré les deux modes imposés (gestes Statiques et Dynamiques) sur son application tandis que Noémie en a ajouté un troisième pour initier le patient à quelques pas de danse en bonus.

    • Scripting
    • Le scripting C# (qui permet de gérer des fonctionnalités logiciels avec du code) fut une découverte pour nous, il nous était parfois difficile de manipuler correctement les différentes fonctions. A force de patience et de nombreuses recherches à naviguer entre le net et les cours à disposition, nous avons réussi à créer nos scripts en C# par nous-même.

      Voici un exemple d’un script en C#, qui nous a permis de mettre en place un chronomètre avec une barre de décompte.

      C# pour le timer

      C# pour le timer

    • Exécutables finaux
    • Vous trouverez ci-dessous le rendu vidéo de nos exécutables. Bon visionnage !

      Application de Clotilde
      Application de Noémie

    Distanciel / Autonomie :

    Le projet a été un exemple pour la mise à l’épreuve de notre capacité à être autonomes. Le distanciel fut une contrainte majeure durant nos créneaux de projet. En effet, la communication rendue difficile, la mise en commun n’a pas toujours été évidente. À regret de ces mêmes conditions, nous n’avons pas pu expérimenter nos propres projets avec les casques de réalité virtuelle 🙁

    Conclusion :

    Puisque notre cahier des charges n’était pas stricte, nous avons ajouté des contraintes afin de compléter le projet pour l’améliorer et le rendre plus attractif.

    Nous pensons qu’avec un meilleur encadrement, rendu impossible dû aux conditions sanitaires actuelles, nous aurions pu être encore plus intransigeantes avec nous-mêmes et aller plus loin.

    ***

    Ce projet très concret nous a permis de mettre un pied dans cycle ingénieur qui nous attend individuellement ces trois prochaines années (Noémie : SAGI / Clotilde : Génie Biomédical).

    Merci pour votre lecture !

    Nous remercions également M. Paul RICHARD pour son encadrement.

    Virtual City

    Bonjour/Bonsoir à tous !

    Nous sommes trois étudiants en deuxième année du cycle préparatoire de Polytech Angers. Dans le cadre de nos études futures, nous avons choisi ce projet pour travailler sur la réalité virtuelle afin d’améliorer nos compétences.

    Dirigé par Monsieur Richard, “Virtual City”, développée sous Unity3D, a avant toute chose un but médical. Cet environnement virtuel sera utilisé par des personnes atteintes de troubles de la mémoire, le patient sera plongé dans la ville et devra suivre un trajet prédéfini où seront placés différents événements.

    A la fin de la séance, nous recueillerons ce que le patient a pu retenir de cette expérience, il devra ainsi faire travailler sa mémoire.
    Cahier des charges :

    • Installation du périphérique Oculus Rift.
    • Développer la ville en la rendant interactive et la plus réelle possible.

    • Se déplacer dans la ville via deux modes de transport différents.

    • Réalisation d’un menu pour faciliter le choix entre les différentes scènes.

    Unity 3D :

    Unity 3D est un logiciel, ou plus précisément, un moteur de jeu multi-plateforme en 2D ou 3D (console, smartphone, PC) développé par Unity Technologies. Cet outil permet de créer des jeux que cela soit pour les débutants ou pour les plus expérimentés avec plusieurs langages de programmation possibles : C++,C# et JavaScript. Ce logiciel gratuit (avec des fonctionnalités professionnels payantes) est aujourd’hui utilisé pour la création de minimum 50% des jeux vidéos.

    Oculus Rift :

    L’Oculus Rift est un casque de réalité virtuelle conçu par l’entreprise Oculus VR qui immerge totalement l’utilisateur dans des mondes virtuels. Projet lancé en 2012, la mise sur le marché mondial du produit se fait qu’en 2016. Une fois l’Oculus équipé, l’utilisateur pourra observer deux écrans (les mêmes)  pour chaque oeil, c’est ce système qui permet d’être immergé totalement. C’est grâce à un système de capteurs posé dans la pièce que le casque et les manettes se repèrent dans l’espace et c’est ainsi que nos mouvements se traduisent dans le jeu.

    Réalisation du projet :

    1. Redesign complet de la ville et Création d’un menu

    En premier lieu après avoir pris en main le logiciel, nous voulions finaliser l’apparence de la ville. Pour se faire nous avons ajouté de la verdure avec la création d’un parc en plein milieu de la ville. Nous avons refait le ciel et ajouter différentes météos comme un mode pluie ou un mode nuit par exemple. En parallèle, nous avons créé un menu pour nous permettre de switcher entre les différents modes de jeu, gérer l’audio du jeu,etc.

    Menu principal du jeu

    Menu principal du jeu

    2.  Animation de la ville et ajout d’événements

    Pour animer notre ville, nous avons organisé un trafic routier géré par un système de feux de signalisation. Nous avons ajouté des piétons qui circulent sur les trottoirs, des gens qui discutent. Au niveau du parc, nous avons fait un “jeu” qui consiste à ramasser un déchet pour le jeter dans une poubelle. Un acte citoyen ça fait pas de mal !

    Vue de la ville à travers le parc

    Vue de la ville à travers le parc

    3. Installation du périphérique Oculus

    C’est le moment déterminant de notre projet. On veut donner une expérience intéressante à ceux qui joueront à notre simulation. Nous avons aussi optimisé les déplacements de notre personnage en voiture ou à pied, le fait de pouvoir attraper des objets, etc.

    4. Dernières modifications

    Les dernières heures de travail, on s’est consacré aux détails comme remettre à échelle les objets, les personnages. Après plusieurs phases de test, nous avons corrigé certains bugs.

     

    Conclusion

    Ce projet a été très enrichissant pour nous, même si nous avons pas fait les mêmes types de travaux. Chacun a pu développer ses capacités et apprendre que cela soit humainement ou sur Unity. La répartition des tâches a été une clé pour bien finaliser notre projet dans les temps.

     

    Projet InMoov

    Bonjour,

    Nous sommes des étudiants de deuxième année du cycle préparatoire de Polytech Angers. Dans le cadre de notre projet de fin d’études nous avons choisi le Projet InMoov.

    Dans la réalité le robot InMoov est un projet en OpenSource c’est-à-dire un projet où chacun peut apporter sa contribution. Il est possible d’imprimer le robot sur des petites imprimantes 3D.

    Dans notre projet il nous a été demandé d’animer le robot sur Unity, un logiciel d’animation 3D en temps réel, très souvent utilisé dans la création de jeux vidéo, d’animation et d’architecture.

    Nous avons tout d’abord commencé par intégrer les packages du robot et de l’arrière-plan dans Unity.

    robot1

    Description

    Après une étude du mouvement du robot nous avons décidé d’utiliser un solveur qui aligne l’articulation avec l’effecteur final. Ce qui nous permet de contrôler entièrement chaque articulation sans avoir à se soucier des différents axes de chaque objet. Nous avons réussi à animer la bouche pour simuler la parole.


    Nous l’avons ensuite animés d’une autre manière en le faisant ce déplacer dans l’espace en esquivant les obstacles comme les barres d’escaliers. En effet, il suivant en empruntant le chemin le plus court une petite sphère qui se déplaçait elle aussi en autonomie grâce à un script. Ensuite, nous avons intégré la commande vocale à notre projet, ce qui nous a permis de commander notre robot avec nos voix. Encore une fois, c’est grâce à un script que le robot reconnaissait nos voix et se déplaçait par la suite. De plus nous avons intégré le capteur Tobii, qui a rendu possible le mouvement des yeux du robot, de cette manière ces derniers arrivaient à suivre la caméra. Pour finir, en associant le casque oculus à Unity nous avons inclus la réalité virtuelle à tout cela. Ceci nous a donc permis de piloter notre robot depuis son corps comme si nous étions réellement à sa place.

    Virtual City

    Matthieu MOREAU – Matthieu HIRON
    Encadré par Paul RICHARD

    Vue sur le parc

    Vue sur le parc

    Notre projet consistait à créer une ville virtuelle à l’aide d’un logiciel de jeu création de jeu : unity 3D. Le but était de créer un joueur suivant un parcours précis. Sur ce parcours, on trouve une ribambelle d’événements. Le joueur qui suit le parcours peut regarder où il veut à l’aide d’un casque de réalité virtuelle. A la fin du parcours, il doit se rappeler quels événements il a rencontré et leur ordre d’apparition. Cette activité est très utile pour les personnes atteintes de maladies entraînant une perte de mémoire aussi bien à court terme qu’à long terme. On pense notamment à la maladie d’Alzheimer par exemple.

    On y trouve même un aéroport !

    On y trouve même un aéroport !

    La conception de notre projet s’est effectuée en 3 grandes phases :

    DOCUMENTATION
    Dans un premier temps, nous avons eu une longue phase de documentation et de recherche sur l’utilisation du logiciel Unity que nous ne connaissions pas du tout. Nous avons notamment regardé de nombreux tutoriels pour découvrir aussi bien le fonctionnement général du logiciel que certaines fonctionnalités plus spécifiques. Nous avons également fait quelques recherches au cours de la conception du projet lorsque que nous avions besoin de fonctions particulières pour la programmation en C#.

    ETUDE
    Une fois que nous avions les bases du logiciel, nous savions ce qui était réalisable avec ce dernier. Nous avons pu établir un plan de la ville que nous voulions créée. Ce plan a toutefois été adapté au fil de la conception puisqu’il était parfois difficilement applicable en réalité. Ensuite, nous avons cherché sur “l’Asset Store” d’Unity des packs de bâtiments, véhicules, personnages…

    Représentation en couronnes de la ville que nous voulons créée

    Représentation en couronnes de la ville que nous voulons créée

    CONCEPTION
    La phase de conception s’est déroulée en 2 partie : une partie création de la ville et une partie programmation afin d’animer les véhicules, le parcours du joueur, les évènements… Cette phase a été plutôt intuitive, même pour la programmation en C#. Une fois cette phase finie, nous avons donc un joueur qui suivait un parcours à travers la ville et qui pouvait observer tout autour de lui. Nous allons aborder un peu plus en détail l’aspect du développement.

    Le centre ville

    Le centre ville

    La conception de la ville s’est effectuée grâce aux “assets” sur Unity. Certains sont gratuits mais plus la qualité augmente, plus les assets sont coûteux. Nous avons choisi de nous diriger vers des textures low-poly, des modèles 3d avec peu de polygones, car c’est plus simple à concevoir et assembler, ce qui nous facilite le travail étant donné que nos compétences étaient plutôt basiques au départ. Cela limite l’aspect réaliste du projet mais ce n’était pas un des objectifs premiers.
    Nous sommes partis d’un modèle de ville que nous avons obtenu d’un Asset et nous l’avons modifié et avons ajouté certains aspects pour la rendre plus réaliste et plus compatibles avec nos idées.

    Phase de développement sous Unity - On y voit les contours de la ville

    Phase de développement sous Unity. On peut remarquer les montagnes installées autour

    Pour finir, nous avons installé un “joueur” symbolisé par un point de vue fixé à un scooter. Nous avons choisi un scooter pour que le déplacement de notre joueur soit plus rapide et puisse ainsi découvrir plus de parties de notre ville. La programmation était plutôt intuitive et rapide à l’aide des différents scripts à notre disposition.

    Illustration du sytème de noeud, la technique pour programmer les déplacements du scooter

    Illustration du sytème de noeud, la technique pour programmer les déplacements du scooter

    Une fois le trajet du joueur définit, il restait à positionner les différents évènements comme une cabine téléphonique qui sonne, un chien qui aboie, sur le chemin et déclencher le dit-événement au passage du joueur.
    Par manque de temps, nous n’avons pas pu rendre notre jeu jouable au casque de réalité virtuelle. Il n’est jouable que sur pc mais nous avons pour objectif de continuer son développement afin de le rendre le plus efficace possible, le but ultime étant de pouvoir le tester avec des personnes malades.

    Voici le trajet du joueur en bonne qualité :

    Vous l’aurez compris, c’est un véritable “Serious Game” que nous avons eu l’occasion de développer. Remerciements à Monsieur Richard pour son aide précieuse qui nous a permis de réaliser ce projet.