Big data et intelligence artificielle : Quelle différence ?
La comparaison entre le Big Data et l‘intelligence artificielle est-elle juste ? Dans une certaine mesure, elle l’est, mais commençons par dissiper la confusion.
Intelligence artificielle. Big Data. Ce sont deux mots à la mode que vous entendez beaucoup ces derniers temps, peut-être au point d’en être confus. Quelles sont les similitudes et les différences entre l’intelligence artificielle et le Big Data ? Ont-ils quelque chose en commun ? Sont-ils similaires ? Peut-on même établir une comparaison valable ?
La seule chose que les deux technologies ont en commun est l’intérêt. Une enquête sur le Big Data et l’IA menée par NewVantage Partners auprès de cadres de haut niveau a révélé que 97,2 % des cadres ont déclaré que leur entreprise investissait dans des initiatives de Big Data et d’IA, qu’elle en créait ou en lançait.
Plus important encore, 76,5 % des cadres estiment que l’IA et le Big Data deviennent étroitement interconnectés et que la plus grande disponibilité des données favorise les initiatives d’IA et de cognition au sein de leur organisation.
Opposer l’intelligence artificielle au Big Data est une erreur naturelle à commettre, en partie parce que les deux vont en fait de pair. Qu’il s’agisse de produits de niche ou de masse. Mais ce sont des outils différents pour accomplir la même tâche. Mais il faut commencer par définir les deux. Beaucoup de gens ne le savent même pas.
« Je constate que beaucoup de gens ne savent pas vraiment ce qu’est le vrai big data ou l’analyse du big data, ou ce qu’est l’IA au-delà de quelques exemples marquants », a déclaré Alan Morrison, chargé de recherche principal chez le géant du conseil PriceWaterhouse Coopers.
L’IA et le Big Data : Les différences
Selon lui, l’un des principaux éléments de différenciation est que le Big Data est l’entrée brute qui doit être nettoyée, structurée et intégrée avant de devenir utile, tandis que l’intelligence artificielle est la sortie, l’intelligence qui résulte des données traitées. C’est ce qui les rend intrinsèquement différentes.
L’intelligence artificielle est une forme d’informatique qui permet aux machines d’exécuter des fonctions cognitives, comme agir ou réagir à des données, de la même manière que les humains. Les applications informatiques traditionnelles réagissent également aux données, mais les réactions et les réponses doivent toutes être codées à la main. Si une balle courbe est lancée, comme un résultat inattendu, l’application ne peut pas réagir. Les systèmes d’IA modifient donc constamment leur comportement pour s’adapter aux changements de résultats et modifier leurs réactions.
Une machine dotée de l’IA est conçue pour analyser et interpréter les données, puis résoudre le problème ou traiter la question en fonction de ces interprétations. Avec l’apprentissage automatique, l’ordinateur apprend une fois comment agir ou réagir à un certain résultat et sait à l’avenir agir de la même manière.
Le Big Data est une informatique à l’ancienne. Il n’agit pas en fonction des résultats, il se contente de les rechercher. Il définit de très grands ensembles de données, mais aussi des données qui peuvent être extrêmement variées. Dans les ensembles de Big Data, il peut y avoir des données structurées, comme des données transactionnelles dans une base de données relationnelle, et des données moins structurées ou non structurées, comme des images, des données de courrier électronique, des données de capteurs, etc.
Ils présentent également des différences d’utilisation. Le Big Data vise principalement à obtenir des informations. Comment Netflix sait-il quels films ou émissions de télévision vous suggérer en fonction de ce que vous regardez ? Parce qu’il examine les habitudes des autres clients et ce qu’ils aiment et en déduit que vous pourriez ressentir la même chose.
L’IA consiste à prendre des décisions et à apprendre à prendre de meilleures décisions. Qu’il s’agisse de logiciels à réglage automatique, de voitures à conduite autonome ou de l’examen d’échantillons médicaux, l’IA accomplit des tâches auparavant effectuées par des humains, mais plus rapidement et avec moins d’erreurs.
Intelligence artificielle et big data ensemble
Bien qu’elles soient très différentes, l’IA et le Big Data fonctionnent bien ensemble. En effet, l’IA a besoin de données pour développer son intelligence, en particulier l’apprentissage automatique. Une application de reconnaissance d’images par apprentissage automatique, par exemple, examine des milliers d’images d’un avion pour apprendre ce qui constitue un avion afin de pouvoir les reconnaître à l’avenir.
Bien sûr, il y a l’étape importante de la préparation des données, ce que Morrison a noté. « Les données dont vous disposez au départ sont des Big Data, mais pour former le modèle, ces données doivent être suffisamment bien structurées et intégrées pour que les machines soient capables d’identifier de manière fiable des modèles utiles dans les données », a-t-il déclaré.
Le Big Data recueille des quantités massives de données et il faut d’abord séparer le bon grain de l’ivraie avant de pouvoir en faire quoi que ce soit. Les données utilisées par l’IA et le ML sont déjà « nettoyées », c’est-à-dire qu’elles sont débarrassées des données superflues, dupliquées et inutiles. Il s’agit donc d’une première étape importante.
Après cela, l’IA peut prospérer dans un écosystème digital. Le Big Data peut fournir les données nécessaires à l’entraînement des algorithmes d’apprentissage. Il existe deux types d’apprentissage des données : la formation initiale, qui est une sorte d’amorçage de la pompe, et les données recueillies régulièrement. Les applications d’IA ne cessent jamais d’apprendre une fois la formation initiale terminée. Elles continuent d’absorber de nouvelles données et ajustent leurs actions en cours de route en fonction de l’évolution des données. Des données sont donc nécessaires au départ et en permanence.
Les deux styles d’informatique utilisent tous deux la reconnaissance des formes, mais différemment. L’analyse du Big Data trouve des modèles par le biais d’une analyse séquentielle, parfois de données froides, c’est-à-dire de données qui ne viennent pas d’être recueillies. Hadoop, le cadre de base de l’analyse des Big Data, est un processus par lots conçu à l’origine pour fonctionner la nuit lorsque l’utilisation des serveurs est faible.
L’apprentissage automatique apprend à partir des données collectées et continue à les collecter (via un tunnel de conversion par exemple). Votre voiture autonome ne cesse de recueillir des données, et elle continue d’apprendre et d’affiner ses processus. Les données arrivent toujours fraîches et sont toujours prises en compte.
Le rôle du Big Data dans l’IA
On parle de l’IA depuis toujours. C’était un point essentiel de « Matrix », un film sorti en 1999. Les humains combattaient des machines devenues trop intelligentes. Mais dans la pratique, l’IA est restée une technologie marginale jusqu’à récemment.
Le grand saut a été l’avènement des processeurs massivement parallèles, en particulier les GPU, qui sont des unités de traitement parallèles massives avec des milliers de cœurs, contre des dizaines dans un CPU. Cela a considérablement accéléré les algorithmes d’IA existants et les a rendus viables.
Avec le Big Data pour alimenter ces processeurs, les algorithmes d’apprentissage automatique peuvent apprendre à reproduire un certain comportement, y compris en collectant les données pour accélérer à leur tour la machine. L’IA ne déduit pas de conclusions comme le font les humains. Elle apprend par essais et erreurs, et cela nécessite des quantités massives de données pour enseigner l’IA.
Plus l’application d’IA dispose de données, plus elle peut obtenir des résultats précis. Dans le passé, l’IA ne fonctionnait pas bien à cause de la lenteur des processeurs et des petits ensembles de données. Il n’y avait pas de capteurs comme aujourd’hui, où une voiture peut avoir des dizaines de capteurs intégrés. Et il n’y avait pas de données en temps réel parce que l’internet n’était pas largement disponible.
Aujourd’hui, nous avons tout ce dont nous avons besoin : des processeurs rapides, des dispositifs d’entrée, un réseau et des quantités massives de données. On peut dire qu’il n’y a pas d’intelligence artificielle sans big data.