samedi , 22 septembre 2018
Home » Services Hébergement Cloud » En 2018, le cloud, le big data et l’intelligence artificielle peuvent-ils encore être en plein essor ?

En 2018, le cloud, le big data et l’intelligence artificielle peuvent-ils encore être en plein essor ?

Nous verrons plusieurs tendances apparaître en 2018 dont l’objectif principal sera de rendre la nouvelle technologie facile et consommable.

Le nombre de nouvelles technologies en 2017 a été impressionnant : le cloud a été adopté plus rapidement que ce que les analystes ont prévu, et a apporté plusieurs nouveaux outils. L’IA a été introduite dans presque tous les domaines de notre vie. IoT et l’informatique de pointe ont fait leur apparition ; et une foule de technologies natives du cloud ont vu le jour, telles que Kubernetes, les bases de données sans serveur et dans le cloud, pour n’en nommer que quelques-unes. Il est maintenant temps d’analyser les tendances et d’anticiper ce qui se passera probablement dans le domaine technologique l’année prochaine.

Alors que nous adorons les nouvelles technologies, le propriétaire d’entreprise moyenne, l’acheteur informatique et le développeur de logiciels se lancent vers cette innovation massive et ne savent pas comment la transformer en valeur commerciale. Nous allons voir plusieurs tendances apparaître en 2018, et leur objectif principal sera de rendre la nouvelle technologie facile et consommable.

Des plates-formes intégrées et tout devient sans serveur

Amazon et les autres fournisseurs de cloud sont en compétition pour gagner et maintenir des parts de marché, ils continuent donc à élever le niveau d’abstraction et l’intégration interservices pour améliorer la productivité des développeurs et renforcer la dépendance des clients aux produits et aux services du vendeur. Nous avons vu Amazon introduire de nouvelles offres de base de données en tant que service, et des bibliothèques et outils d’IA entièrement intégrés lors de l’AWS Re: Invent du mois dernier. Il a également commencé à faire la distinction entre les différentes formes de sans serveur : AWS Lambda parle maintenant de fonctions sans serveur, tandis qu’AWS Aurora et Athena parlent de « bases de données sans serveur », élargissant la définition de sans serveur qui dissimule des services sous-jacents. Aujourd’hui, beaucoup plus de services cloud pourront vraisemblablement s’appeler « sans serveur » à partir de cette définition plus large.

En 2018, nous verrons les fournisseurs de cloud accorder une plus grande importance à l’intégration des services individuels qui viennent avec des abstractions de plus haut niveau. Ils se concentreront également sur les services liés à l’IA, la gestion des données et sans serveur. Ces solutions simplifieront les tâches des développeurs et des professionnels des opérations et cacheront leurs complexités inhérentes. Cependant, ils comportent un risque de plus grand lockin.

En 2017, nous avons vu tous les fournisseurs de cloud s’aligner sur Kubernetes en tant que couche d’orchestration de microservices, ce qui a résolu une partie de la dépendance des clients aux produits et aux services du vendeur. En 2018, nous allons voir une augmentation du nombre d’un ensemble de services ouverts et commerciaux sur Kubernetes. Ils sont capables de fournir une alternative multicloud aux offres de cloud propriétaires. Le Nuclio d’Iguazio est bien sûr un excellent exemple pour une plate-forme sans serveur ouverte et multicloud, tout comme le service de PaaS multicloud, Openshift de Red Hat.

La périphérie intelligente par rapport au cloud privé

Le cloud permet à l’entreprise d’obtenir l’agilité dont elle a besoin pour développer des applications modernes et pilotées par les données, que ce soit au niveau des startups ou des grandes entreprises opérant comme des startups. Le défi à relever est que vous ne pouvez pas ignorer la gravité des données, car de nombreuses sources de données vivent encore dans la périphérie ou dans l’entreprise. Ceci – augmenté par la bande passante 5G, la latence, les nouvelles réglementations comme GDPR, et plus – vous oblige à rapprocher le calcul et le stockage des sources de données.

Le modèle de cloud public actuel est utilisé pour permettre aux développeurs et aux utilisateurs de contourner l’informatique, d’apporter quelques fonctions sans serveur, d’utiliser des bases de données libre-service ou même de transférer une vidéo vers un service cloud qui la traduira dans la langue souhaitée. Mais, vous devez construire vous-mêmes les services lorsque vous utilisez les alternatives sur site, et la pile technologique évolue si rapidement qu’il est pratiquement impossible pour les équipes informatiques de construire des services modernes qui peuvent être comparés aux alternatives cloud, ce qui a forcé les entreprises à se lancer dans le cloud.

Les solutions de fournisseurs informatiques labellés « cloud privé » n’ont rien en commun avec le vrai cloud, car elles se concentrent sur l’automatisation des opérations informatiques. Elles n’offrent pas de services de niveau supérieur aux utilisateurs et aux développeurs. L’informatique finit par assembler les dizaines de packages open source ou commerciaux individuels, en ajoutant des couches de sécurité communes, de la gestion de la journalisation et de la configuration, etc. Cela a donné aux fournisseurs de cloud et aux nouvelles entreprises l’opportunité d’entrer  dans la périphérie et l’espace sur le site.

En 2017, nous avons vu le PDG de Microsoft, Satya Nadella, se concentrer sur ce qu’il appelle «la périphérie intelligente ». Microsoft a présenté Azure Stack, une mini-version du cloud d’Azure qui ne contient malheureusement qu’une petite partie des services offerts par Microsoft. . Amazon a commencé à livrer des appliances de périphérie appelées Snowball Edge, et on espère qu’il redouble ces efforts.

La périphérie intelligente n’est pas un cloud privé. Elle fournit un ensemble identique de services et de modèles d’exploitation comme dans le cloud public, mais elle est accessible localement et est souvent exploitée et gérée à partir d’un cloud central, c’est comme si les opérateurs gèrent nos décodeurs de câble.

En 2018, nous verrons le marché du cloud privé traditionnel se rétrécir alors que simultanément, l’élan autour de la périphérie intelligente va croître. Les fournisseurs de services cloud ajouteront ou amélioreront les offres de la périphérie et les nouvelles entreprises entreront dans cet espace, dans certains cas, grâce à des offres intégrées à des applications verticales spécifiques ou à des différents cas d’utilisation.

L’Intelligence artificielle depuis la technologie brute à la fonctionnalité intégrée et aux piles verticales

Nous avons vu l’essor des technologies de l’Intelligence artificielle (IA) et de l’apprentissage automatique en 2017, mais en dépit du battage médiatique, elles sont en réalité principalement utilisées par des sociétés Web leaders sur le marché comme Amazon, Google et Facebook. L’IA est loin d’être insignifiante pour l’entreprise moyenne, mais il n’y a vraiment aucune raison pour la plupart des organisations d’embaucher des chercheurs de données à peine disponibles ou de construire et de former des modèles d’Intelligence Artificielle à partir de zéro.

Nous pouvons voir comment les entreprises comme Salesforce ont intégré l’IA dans leur plate-forme, en tirant parti de la grande quantité de données client qu’elle héberge. D’autres suivent cette voie pour intégrer l’IA dans les offres en tant que fonctionnalité. Dans le même temps, nous voyons l’IA se concentrer verticalement, et nous allons commencer à voir des solutions logicielles d’IA pour des industries et des secteurs spécifiques tels que le marketing, le commerce de détail, les soins de santé, la finance et la sécurité. Les utilisateurs n’auront pas besoin de connaître les internes des réseaux de neurones ou des algorithmes de régression dans ces solutions. Au lieu de cela, ils fourniront des données et un ensemble de paramètres et obtiendront un modèle d’IA qui peut être utilisé dans leur application.

IA est encore un domaine très nouveau avec de nombreuses offres qui se chevauchent et aucune standardisation. Si vous avez utilisé un framework tel que TensorFlow, Spark, H2O et Python pour votre phase d’apprentissage, vous devrez utiliser la même chose pour la partie d’inférence (notation). En 2018, nous verrons des efforts pour définir des modèles d’IA qui seront ouverts et multi-plateformes. En outre, nous verrons plus de solutions qui automatisent le processus de construction, de formation et de déploiement de l’intelligence artificielle, comme l’AWS Sage Maker récemment introduit.

Depuis le big data aux données continues

Ces dernières années, les entreprises ont commencé à développer une pratique de Big Data pilotée par l’informatique centrale. Son objectif a été de collecter, d’organiser et d’analyser de manière centralisée les données et les journaux d’entreprise pour les applications futures. Les données ont été collectées dans des clusters Hadoop et des solutions d’entrepôt de données, ensuite utilisées par un ensemble de spécialistes de données qui exécutent des tâches par lots et réalisent des rapports ou des tableaux de bord. Cette approche a voué à l’échec selon tous les principaux analystes, avec 70% des entreprises ne voyant aucun retour sur investissement (selon Gartner). Les données doivent être actionnables pour obtenir des informations sur le retour sur investissement. Ceci doit être intégré aux processus métiers et issu de données récentes, comme nous le voyons dans les publicités ciblées et dans les recommandations Google et Facebook.

Les informations sur les données doivent être intégrées dans les applications des entreprises modernes. Par exemple, un client accédant à un site Web ou utilisant un chatbot a besoin d’avoir une réponse immédiate avec un contenu ciblé basé sur ses activités récentes ou son profil. Les données de capteurs collectées à partir de l’IoT ou des appareils mobiles circulent en continu et nécessitent des actions immédiates pour générer des alertes, détecter les violations de sécurité, fournir une maintenance prédictive ou activer des actions correctives. Les données visuelles sont inspectées en temps réel pour la surveillance et la sécurité nationale ; elles sont également utilisées par les détaillants pour analyser les données sur les points de vente telles que l’état des stocks, les préférences des clients et les recommandations en temps réel basés sur les activités des clients observées. Les analyses de données et en temps réel réduisent les opérations coûteuses tout en automatisant les processus autrefois manuels. Les voitures deviennent connectées et autonomes. Les télévendeurs et les assistants sont remplacés par des robots. Les flottes ou les camions, les chauffeurs de taxi ou les techniciens sont guidés par l’IA et une logique pilotée par les événements afin de maximiser l’utilisation des ressources.

Tout cela a déjà commencé en 2017.

Des technologies comme Hadoop et l’entreposage de données ont été inventées il y a dix ans et sont antérieures à l’ère de l’IA, du traitement des flux et des technologies en mémoire ou flash. Les entreprises constatent maintenant que la création de lacs de données a une valeur limitée, car elles peuvent effectuer l’extraction de données en utilisant des technologies cloud plus simples. L’objectif est passé de la simple collecte de données à l’utilisation continue de données, un domaine dans lequel les technologies basées sur les données stockées et les processus informatiques centraux ne disparaîtront tout simplement pas.

En 2018, nous assisterons à la transition du big data vers des données rapides et des applications continues pilotées par les données. Les données seront continuellement ingérées par une grande variété de sources. Elles seront contextualisées, enrichies et agrégées en temps réel, comparées à des modèles d’IA préappris ou appris en continu afin qu’elles génèrent une réponse immédiate aux utilisateurs, pilotent des actions et sont présentées dans des tableaux de bord interactifs en temps réel.

Les développeurs utiliseront des offres cloud pré-fabriquées ou intégreront leurs solutions en utilisant des services cloud natifs pertinents. Au sein de l’entreprise, les accents mis vont passer de l’informatique aux unités d’exploitation et aux développeurs d’applications qui vont intégrer les décisions basées sur les données dans la logique métier existante, les portails Web et les interactions quotidiennes des clients.

Le résultat net pour 2018 est :

  1. L’avantage intelligent va se développer, et le marché du cloud privé traditionnel va diminuer.
  2. Nous commencerons à voir des solutions logicielles de l’IA pour des industries et des secteurs verticaux spécifiques. En outre, les modèles d’IA commenceront à devenir open et multiplateformes.
  3. Des données rapides, des applications continues et des services cloud remplaceront les big data et Hadoop.
  4. D’une manière ou d’une autre, les services de cloud computing seront plus faciles à consommer, ce qui augmentera la différence entre eux et les solutions cloud traditionnelles et privées. Alors, amenez les chaînes et préparez-vous à être encore plus enfermé !

À lire aussi

13 APIs que chaque développeur doit connaître

De l’IA à l’AR en passant par la transportation et la téléphonie, ces APIs Web …