Sélectionner une page

LE LANGAGE DE LA TECHNOLOGIE

Le Machine Learning est en train de devenir un mot à la mode, après avoir fait le tour dans les médias grand public. Aujourd’hui, l’Intelligence Artificielle se place rapidement comme objectif technologique pour les entreprises avant-gardistes, dans l’espoir de mettre en œuvre des prévisions robustes.
La plupart des décideurs font plus que suivre les tendances : ils cherchent à comprendre ce qu’elles veulent dire et quelles sont les opportunités. Pourtant, on ne peut pas s’attendre à ce qu’ils soient des experts dans tous les domaines, et peuvent donc être forcés, parfois contre leur meilleur jugement, de croire en la capacité « disruptive » de ces nouvelles découvertes, et de prendre un pari, quant à savoir si leur prochaine initiative sera couronnée de succès.
La philosophie de Peacock Solutions est de toujours garder une compréhension claire des raisons pour lesquelles les technologies actuelles sont utilisées comme elles le sont. Ainsi, en suivant nos principes, nous allons décrire ici comment et pourquoi les tendances technologiques sont ce qu’elles sont maintenant, où elles se dirigent, et quelles sont les possibilités qu’elles offriront à l’avenir.

 

MACHINE LEARNING

Aujourd’hui, lorsque nous disons « Machine Learning », nous entendons surtout les réseaux neuronaux en utilisant la « back propagation » (rétropropagation du gradient) et l’apprentissage supervisé. Comme le Machine Learning est le terme plus général qui couvre les réseaux neuronaux, il est courant de l’entendre comme un terme générique: mais la mine d’or réelle est la puissance des réseaux neuronaux. Leur efficacité a suscité de nombreux articles, et si bien qu’aujourd’hui, nous trouvons de nouvelles solutions pour les problèmes qui semblaient impossibles avant.

Pourtant, le domaine a été, avec une grande partie de la théorie informatique, développé dans les années 40. Les ordinateurs à cette époque ne possédaient pas assez de capacité de calcul pour effectuer ces calculs en temps opportun, ce qui peut être compris comme la raison pour laquelle les années 50 ne sont pas connus aujourd’hui comme la décennie d’apprentissage automatique: le meilleur choix à ce moment était souvent de concevoir un algorithme plus spécialisé, plus sobre mais plus efficace. Néanmoins, le concept de réseau neuronal était déjà proposé au milieu des années 60. Dans plusieurs articles entre 1975 et 1990, Paul J. Werbos a contribué à développer l’idée de la « back propagation » : faire en sorte que l’algorithme modifie la plupart de ses parties en fonction des erreurs qu’il a faites (rétropropagation de l’erreur sur les poids). Cette avancée a permis aux réseaux neuronaux de résoudre le fameux problème de disjonction exclusive (XOR, eXclusive OR), dont le coeur est l’impossibilité de distinguer les réponses basées sur une seule caractéristique.

Puis, en 1989, la gigantesque déclaration connue sous le nom de « théorème de l’approximation universelle » a été prouvée par Cybenko1. Ce que ce théorème démontre, c’est que n’importe quelle paire d’entrée et de sortie, à condition qu’il y ait une fonction qui relie les deux, peut être approximative par un réseau neuronal très simple (bien que pas très efficace). Cette idée se cache derrière le battage médiatique actuel comme le plus grand avantage des réseaux neuronaux. En théorie, il supprime la nécessité d’une hypothèse, d’une compréhension humaine sur la façon dont la relation entre la cause et la conséquence devrait ressembler: avec assez de puissance de calcul, le réseau construit les lois par lui-même. Ceci ne peut pas être sous-estimé: l’ordinateur cesse d’être une calculatrice et commence à être un penseur. Certes, étant donné que les machines sont encore loin de posséder la capacité d’un cerveau humain, il y a quelques restrictions pour compenser cet enthousiasme. C’est là que la partie humaine est nécessaire, la conception de réseaux intelligents afin de (fortement) pousser la machine vers le résultat souhaité.

Ces dernières années, les réseaux neuronaux ont gagné en popularité. Non pas parce qu’il est devenu plus facile, ou en raison de l’optimisation faite, mais parce que la quantité de données disponibles sur laquelle former les algorithmes a atteint des quantités énormes. Il est donc possible d’essayer d’examiner les corrélations possibles entre les données sur laquelle nous mettons la main, comme une sorte d’expérience informatique. Ces expériences, cependant, tirent parti des données pour obtenir des résultats impressionants : les capacités de prévision d’un réseau neuronal sont tout à fait réelles. Par exemple, être en mesure de prédire si une baisse de la demande est à venir peut mieux protéger l’entreprise contre le surstockage. Un algorithme de modélisation du langage peut détecter des formulations dangereuses dans les communications des relations publiques. Ces projets, grâce à l’intérêt et aux développements de ces dernières années, sont devenus réalisables et parfaitement intégrés dans l’infrastructure d’une entreprise.

Même en 2019, le codage des réseaux neuronaux reste dans les compétences de quelques privilégiés : leurs applications sont infinies, et leur efficacité presque inégalée, et, bien qu’il y ait eu beaucoup de progrès pour élargir leur attrait et rassembler quelques versions conviviales, la théorie sous-jacente exige une solide formation scientifique. Le principal écueil étant qu’un réseau neuronal ne peut pas être considéré comme utile tant qu’il n’a pas accompli sa formation et montre des résultats prometteurs. Pendant la phase d’apprentissage, l’algorithme peut produire des résultats éloignés, et il n’y a qu’une seule façon de savoir si le réseau va atteindre ses objectifs, en plus de le laisser s’entraîner pendant des jours, ou des semaines: comprendre les données et être en mesure de quantifier ce à quoi l’objectif doit ressembler. Et donc, alors qu’il faut quelques lignes de codes pour lancer une telle machine, il faut des années d’éducation pour savoir bien comment la concevoir.

INTELLIGENCE ARTIFICIELLE

2019 est indubitablement l’année de l’IA. Cette prochaine étape pour l’apprentissage automatique représente quelque chose que tout le monde peut imaginer : des ordinateurs semblables à des humains. Fondamentalement, il n’y a vraiment pas de grande différence entre l’intelligence artificielle et l’apprentissage automatique, puisque le premier est essentiellement une machine qui apprend. La division existe parce qu’il y a un écart conceptuel entre un algorithme qui exécute une tâche et un esprit synthétique qui fournit des réponses. Cette perspective humaine sur les ordinateurs est cependant bien fondée : lorsqu’on exerce un devoir critique, quiconque, dans cette décennie, ne permettrait jamais l’action d’une machine seule chaque fois qu’il y aurait la possibilité d’avoir un humain à côté. Les voitures sans conducteur, par exemple, sont — et le seront pendant longtemps, indubitablement — tenues d’avoir quelqu’un pour surveiller la conduite de la voiture. Une IA, cependant, est quelque chose à laquelle  vous pouvez faire confiance. Elle a été conçu pour être consciente, et tandis que les algorithmes peuvent être autorisés à prendre soin de tâches importantes mais fastidieuses, une IA peut se voir attribué de la responsabilité.

Le travail de Peacock Solutions sur l’intelligence artificielle est basé sur la responsabilité. Sachant que le produit sera en mesure de fournir beaucoup plus qu’un simple algorithme, il y a un besoin fondamental de confiance. Soyez sûr qu’une de nos IA peut assumer cette responsabilité qu’on lui octroie. Cela dit, c’est un bon moyen de catégoriser si ce que vous regardez est un IA ou non : lui a-t-il été donné de la responsabilité?

La subtilité qui est importante lors de l’examen de la véritable IA est la distinction entre le choix et la responsabilité. Une IA qui conseille est toujours une IA : elle s’est vu confier la responsabilité de donner des conseils judicieux et cruciaux à une entreprise dont les choix peuvent parfois dépendre de ces recommandations particulières. La construction d’un système fiable exige que l’IA soit imprégnée des connaissances pertinentes et, au fur et à mesure que nous progressons; les machines apprendrons plus comme les humains, la nécessité pour les concepteurs de comprendre eux-mêmes ce que la machine essaie de comprendre est inévitable.

Même si le Machine Learning est très prisé en tant que domaine de recherche2, l’IA est un changement de paradigme et de perspective où l’ambition définit les nouveaux objectifs à suivre.

OPPORTUNITÉS

Nous sommes au début de l’ère de l’information, et pourtant: si une entreprise existe, elle possède des données. Tout comme elle possède une administration centrale, des actifs et des passifs, elle possède des données comme un outil stratégique ou comme un poids à porter. Le Machine Learning a rendu presque n’importe quelle tâche concernant le traitement de ces données faisable, permettant aux compagnies de se défaire de la prise de décision douteuse basée sur des preuves anecdotiques. Un obstacle largement étudié est le chaos complet qui entoure souvent la collecte de données. Pourtant, alors que certains problèmes humains ne peuvent être résolus que par des solutions humaines, la plupart des problèmes sur le terrain disparaissent à l’aide d’un seul algorithme bien fait. Ensuite, ce flux d’informations devient un outil puissant pour toute entreprise, quel que soit son domaine : qu’il s’agisse de mieux connaître vos clients, de mieux connaître vos produits, ou même de rester au courant des tendances implicites dans votre secteur d’activité.

L’IA va encore plus loin en fournissant des recommandations et en transformant les données en informations. Les décideurs sont mieux aidés dans leur processus, et pour une tâche spécifique, peuvent même déléguer des choix mineurs. L’intégration de l’intelligence artificielle dans les affaires est le catalyseur d’une voie résolument tournée vers l’avenir. À mesure que nous améliorons l’analyse des relations subtiles et des situations complexes, nous faisons avancer nos processus avec nous. Cependant, il y a tant de choses que nous ne pouvons faire sans les outils appropriés: la dépendance croissante sur les données et l’information nous oblige à dépendre de ces nouveaux outils. Le temps est venu d’investir dans des outils pour le cerveau.

1. Cybenko, G. (1989). Approximation par superpositions d’une fonction sigmoïdale. Mathématiques du contrôle, des signaux et des systèmes, 2(4), 303-314. https://doi.org/10.1007/BF02551274
2. Minar, M. R., Naher, J. (2018). Progrès récents dans l’apprentissage profond: Un aperçu. ArXiv:1807.08169 [Cs, Stat]. https://doi.org/10.13140/RG.2.2.24831.10403