Agence du Numérique (ex - Agence Wallonne des Télécommunications / AWT), la plateforme ICT de la Wallonie

jeudi 29 septembre 2016

10 technologies qui vont "secouer" les TIC

Lors du Symposium ITxpo 2008 à Barcelone, le Gartner Group a identifié 10 technologies qui vont marquer d'une manière significative les tendances dans le business et les TIC. A la clé, de nouvelles opportunités d'affaires et un inévitable impact sociétal
Twitter Facebook Delicious
Mis à jour le 20/06/2008 | Imprimer | Envoyer

Le "Gartner IT Symposium" du 12 mai 2008 à Barcelone a mis en évidence ces 10 technologies qui vont changer, voire perturber les habitudes du monde des technologies de l'information et de la communication dans les dix années à venir.

Les critères de choix de ces 10 technologies se basent sur les réponses à trois questions:

  • quelle technologie aura le plus d'impact sur le modèle économique et la manière dont les utilisateurs l'adopteront?
  • comment ces technologies vont-elles modifier les dépenses et quel sera l'impact sur les marchés TIC?
  • quelles décisions devront prendre les entreprises pour minimiser les risques et maximiser les bénéfices de l'innovation?

Processeurs Multicore et Hybrid

Les architectures hardware évoluent vers l'usage de plusieurs processeurs (le "Multicore") en parallèle pour augmenter les performances d'un ordinateur par l'exécution de plusieurs tâches en même temps.

Au niveau logiciel, le passage des applications d'un système monoprocesseur à un système multiprocesseurs n'est pas automatique. Les applications existantes doivent subir une importante révision afin qu'elles puissent utiliser la puissance de plusieurs processeurs en même temps. Sinon, un seul processeur sera utilisé et surchargé (les autres n'étant pas utilisés) et les performances des ordinateurs ne bénéficieront aucunement de l'avantage d'une telle architecture. Les nouvelles applications devront être conçues à la base pour fonctionner sur plusieurs processeurs (multithreaded applications).

Les performances des processeurs augmentent pratiquement tous les deux ans. Ils sont plus performants et moins chers. Les dimensions diminuent également et permettent la miniaturisation des équipements électroniques.

Une puce électronique contient de plus en plus d'éléments et la tendance est d'arriver au "system on a chip" (le système sur une puce électronique). Le seul frein actuel est lié à la dissipation de chaleur car plus il y a d'éléments sur une puce, plus il y aura de la chaleur à dissiper. L'échauffement de la puce doit être maintenu dans les limites raisonnables pour assurer un bon fonctionnement

Virtualisation

La virtualisation, comment ça marche? Une machine physique (un serveur, voire un PC ou un laptop) peut être divisée en plusieurs machines virtuelles (de plus petites capacités), indépendantes les unes des autres et chacune étant vue comme un container. Ainsi, une machine réelle physique peut contenir plusieurs containers. Dans son container, la machine virtuelle utilise son propre système d'exploitation et ses propres applications.

Certaines technologies permettent la "téléportation", c'est-à-dire le déplacement d'un container, avec le système d'exploitation et les applications, d'une machine physique à une autre machine physique sans perturber en rien le bon fonctionnant de la machine virtuelle.

Les vendeurs de logiciels intègrent l'installation des applications sur ces machines virtuelles en plus de l'installation classique sur des machines physiques.

La nouveauté pour les années à venir sera cette tendance vers "l'agrégation": la création d'une machine virtuelle sur plusieurs machines physiques. Cette nouvelle machine virtuelle sera capable d'utiliser un système d'exploitation unique et les ressources de plusieurs machines réelles distribuées.

Cloud Computing et Cloud/Web Platforms

Le Cloud Computing est une nouvelle façon d'aborder l'informatique où des fonctionnalités TIC, massivement évolutives et flexibles, sont fournies "as a service" à travers les technologies Internet, via un "nuage" de serveurs vers une multitude d'utilisateurs externes. Dans ce nouveau modèle, tout est vu comme un service: l'application, l'infrastructure, l'information, le processus, la gestion de l'écosystème.

L'évolution de l'Internet vers le "Cloud Computing" bouleverse profondément le monde des TIC, depuis le fournisseur de service, jusqu'au consommateur. Le fournisseur de service ne pourra plus travailler comme il le fait maintenant. Il devra se spécialiser dans la création et le développement d'applications et de services en utilisant les "briques" informatiques disponibles dans les différentes plateformes "cloud/Web". Il devra seulement composer/assembler les services et les présenter au client avec un interface propre, spécifique.

Avec les plateformes "Cloud Computing", un fournisseur de services peut développer, héberger ou délivrer ses propres services, payables en fonction de l'usage et accessibles par Internet.

En plus, ces services doivent assurer la flexibilité, le partage des ressources et être évolutifs. Rien n'empêche un même fournisseur de service d'utiliser une ou plusieurs plateformes "Cloud Computing" pour réaliser ses applications composites (mashups) et les fournir aux clients. L'Internet deviendra un écosystème composé de plateformes "Cloud/Web Computing" utilisé par des tiers (les fournisseurs de services) afin d'assurer les services à la demande d'utilisateurs.

CloudComputing: The Big Picture

Une plateforme "Cloud/Web Computing" sera constituée d'accès vers:

  • une API standardisée (pour la réalisation d'applications spécifiques);
  • des formats de données;
  • des formats et des descriptions de services (calcul, stockage, sécurité, gestion d'application, composant d'application, processus applicatif, processus business, etc.).

Les précurseurs dans ce domaine sont les développeurs de SaaS:

  • Amazon propose déjà le stockage (via son service S3: Simple Storage Service) et la capacité de calcul en ligne (via son service EC2: Elastic Compute Cloud);
  • Google a également été l'un des pionniers pour ce type de service et continue avec GoogleApps Engine ou en partenariat avec d'autres entreprises;
  • IBM, avec son programme Blue Cloud, ouvre d'immenses centres de cloud computing, nommés "data fields", partout dans le monde.
  • Sun Microsystems, EMC² et HP annoncent des solutions dans le même style.

Mashups

Le "mashup" est un site Web ou une application qui présente un contenu provenant de différentes sources intégrées dans une présentation spécifique. Les prévisions Gartner annoncent ces "mashups" comme le modèle dominant à 80% sur le marché des applications d'entreprise en 2010.

Les "mashups" reposent notamment sur les technologies suivantes:

  • API;
  • Web services call;
  • JavaScript;
  • Web feeds: RSS, XML et Atom.

User Interface

Pour les interfaces utilisateur le slogan "Environment is the computer" semble être sur la bonne voie. C'est notamment le cas avec les futurs écrans réalisés avec des LEDs à base de matériels organiques (OLED) ou plastiques, ou encore les écrans basés sur l'e-paper. Ces écrans peuvent utiliser un support flexible et/ou transparent, et offrir de nouveaux usages, inhabituels aujourd'hui, comme le pare-brise d'une voiture. Des écrans 3D feront également leur apparition sur le marché, à côté d'outils qui simulent l'odorat, le toucher, etc.

Différents outils seront disponibles pour la communication avec les machines intelligentes du futur:

  • la communication vocale pour donner des ordres d'exécution;
  • le GSM (l'équipement mobile intelligent);
  • les consoles de jeux;
  • les claviers virtuels;
  • les "agents" intelligents (Intelligent Agents);
  • la reconnaissance gestuelle;
  • les habits intelligents (T-shirt et vestes dotés d'éléments sensitifs, des capteurs, etc.);
  • etc.

Social networks et Social software

Partager le savoir est le pouvoir: telle est la devise de la nouvelle génération des "digital native", c'est-à-dire les jeunes qui ont grandi avec les outils de communication et de collaboration, et qui ont fait évoluer la toile vers cette "alchimie des multitudes " ou "l'intelligence collective". Gartner définit les logiciels spécifiques de "Social Networking" comme le "Yin et le Yang" des interactions informelles.

Les logiciels spécifiques pour les réseaux sociaux fournissent un environnement ouvert et gratuit qui:

  • stimule une large participation par des interactions informelles;
  • agrège ces interactions dans une structure qui reflète une attitude collective et le savoir des participants: opinions, commentaires, préférences, intérêts, etc.

Parfois, une telle plateforme représente une collection de données de toutes sortes qui sont partagées par un groupe en accès libre (shared repository). Le résultat est tout aussi surprenant: une co-création et un co-filtrage comme le montre l'exemple de Wikipédia.

Ubiquitous Computing

Pour mieux illustrer ce concept, on peut se souvenir de l'idée émise par Mark Weiser de Xerox Park: "En 1960 de milliers de personnes utilisent un seul ordinateur; dans le futur une seule personne utilisera de milliers d'ordinateurs". On y est presque!

Le concept d'Ubiquitus Computing (omniprésence de l'intelligence informatique) implique que:

  • les ordinateurs deviendront des simples objets (l'ordinateur de bord dans les automobiles est devenu un simple objet caché, accessible avec quelques touches);
  • beaucoup d'objets vont communiquer entre eux;
  • les données et les préférences vont suivre l'utilisateur;
  • la connectivité change (fixe, mobile, permanente, temporaire, etc.);
  • l'emplacement de l'ordinateur n'a plus d'importance. On se connecte de n'importe où et avec n'importe quel équipement (location awareness);

Tout ces ordinateurs se trouvant n'importe où doivent être connectés entre eux par des réseaux fibrés, mobiles ou sans fil. Les données doivent d'être accessibles de partout et via n'importe quel équipement. Les ordinateurs placés dans les objets utilisables tous les jours peuvent créer un meilleur comportement, plus naturel ou plus intuitif. On ne les verra ou percevra plus comme des ordinateurs. Ils seront pratiquement invisibles tout en étant plus complexes.

Contextual Computing

Les services enrichis avec des données contextuelles sont déjà disponibles sur le marché, sur les portails web, les applications mobiles et les solutions de communication unifiées. Le logiciel s'adapte à une situation spécifique de l'utilisateur.

Les pionniers en la matière sont notamment:

  • GeoVector, qui combine les images avec des services de localisation pour créer des nouvelles opportunités commerciales;
  • Geo-Tracking, qui suit le mouvement des participants avec les techniques GPS;
  • NTT DoCoMo: le système de paiement mobile démontre l'émergence des équipements qui utilisent plusieurs protocoles de communication mobile (GSM, GPS, HSDPA, etc.);
  • etc.

Augmented reality

Les nouvelles applications permettront d'amplifier et d'approfondir certains aspects de notre vie au bon moment ou dans la bonne situation, afin de générer des revenus. De nouveaux business devraient ainsi se mettre en place, comme par exemple:

  • donner plus d'informations pour aider l'utilisateur dans son choix d'un restaurant;
  • fournir en temps réel un guide pour la visite d'un musée;
  • etc.

Ces nouveaux concepts vont générer des revenus basés sur:

  • la localisation (le domaine militaire, les panneaux de signalisation routière, etc.);
  • les objets (la réparation d'objets, les services de vérification et de validation, les soins de santé, etc.);
  • les personnes (services de "check-in" pour les hôtels ou les aéroports, enregistrement des noms, etc.);
  • la téléprésence (soins de santé, commerce, communautés, etc.).

Semantics

Toutes les informations sur le Web visent un public humain. Afin de rendre ces informations également accessibles pour les machines, il faut enlever toute ambigüité et donc mieux définir les données et la sémantique des relations.

Le "Semantic Web" est un Web articulé autour de données et d'un medium universel pour les échanges d'informations. Techniquement, le système devra reposer sur des normes sémantiques et des langages de balises pour décrire les éléments et les relations entre ces éléments.

Le "Semantic Web" est une vision à long terme. Les normes et les standards sont approuvés par le W3C.

Pour en savoir plus

  • Gartner Lien externe
    Le Gartner Group est l'un des leaders dans la recherche et l'analyse du secteur des technologies de l'information (IT)
    http://www.gartner.com
  • Mobile & Wireless Summit 2008
    Le Wireless & Mobile Summit 2008 du Gartner Group a mis en relief l'importance du phénomène de "consumérisation de la mobilité" qui constitue un défi majeur en termes de maîtrise des technologies mais également d'organisation pour les entreprises
    http://www.awt.be/web/mob/index.aspx?page=mob,fr,foc,100,047
  • Le microblogging au service de la communication des entreprises
    Les services de microblogging permettent aux entreprises de se rapprocher de leurs clients en communiquant de manière plus spontanée. Ces services ouvrent également de nouvelles opportunités pour la distribution des produits et services
    http://www.awt.be/web/ebu/index.aspx?page=ebu,fr,foc,100,099
  • World Wide Web Consortium (W3C) Lien externe
    Le Consortium du World Wide Web crée des standards pour le Web (XML, XHTML, CSS, WSDL, SOAP, etc.). Sa mission est de mener le Web à son potentiel maximal, tout en développant des technologies (specifications, lignes directrices, logiciel et outils) qui favorisent l'échange d'information, le commerce, l'inspiration, le libre arbitre, et la compréhension collective
    http://www.w3c.org
Portail de la Région wallonne