L’Intelligence Artificielle (I A) dispense-t-elle les Directeurs Financiers de faire des prévisions ?
L’IA tout le monde en parle. Tous les métiers sont impactés.
Mais au fait qu’entend-t-on par IA ?
Quelles sont les étapes ?
Etape 1 : L’Homme décide seul
Etape 2 : L’Homme décide assisté de la Machine
Etape 3 : La Machine décide assistée de l’Homme
Etape 4 : La Machine décide seule
Beaucoup de Directeurs Financiers s’interrogent sur leur avenir...
Où en sommes-nous dans le processus ?
A quelle étape en sommes-nous concrètement dans nos métiers ? Etape 2 ? Etape 3 ?
Le mieux pour le savoir est de se renseigner sur ce qui se passe dans d’autres disciplines …
Notamment dans la médecine et le droit qui sont des professions règlementées.
La FDA (Food & Drugs Administration=> pas des plaisantins !) aurait déjà autorisé la machine, dans un cas très limité de pathologies liées à l’oeil, à poser le diagnostic. Le médecin n’ayant plus comme rôle que de contrôler l’administration des médicaments. En résumé, nous serions déjà dans l’étape 3…
Le Droit ?
Suite à la percée de plusieurs Legal Techs de nombreuses manifestations et publications apparaissent sur le thème de « la Justice prédictive »… Nous n’en sommes qu’au début mais d’éminents professeurs de droit s’interrogent et montent au créneau citant Oliver W. HOLMES, «The path of the law», Harvard Law Review, 25 March 1897, n° 10, p. 457.
“When we study law we are not studying a mystery but a well-known profession. People want to know under what circumstances and how far they will run the risk of coming against what is so much stronger than themselves, and hence it becomes a business to find out when this danger is to be feared. I wish, if I can, to lay down some first principles for the study of this body of dogma or systematized prediction which we call the law. If you want to know the law and nothing else, you must look at it as a bad man, who cares only for the material consequences which such knowledge enables him to predict. The prophecies of what the courts will do in fact, and nothing more pretentious, are what I mean by the law”.
In other words, le droit ne servirait à rien. Ce qui se passe avec les algorithmes capables de prédire la décision des juges… ne serait en fait rien d’autre que la confirmation de cette intuition de la fin du XIXème siècle. Le rôle des avocats consisterait avant tout à « prédire la décision des juges ». Dans un futur proche faudra-t-il tenir compte de ce qu’ont pris les juges à leur petit déjeuner pour anticiper leur décision ? Ou du temps qui sépare leur décision de la prise de leur dernier repas ?
C’est très très réducteur pour nos amis avocats…Et cela pose la question de leur formation ? Qu’apprendre aux jeunes dans les universités ou les écoles de droit ? Et aussi que leur donner à faire dans leur stages ? L’IA c’est la fin des « stages bibliothèques » pour tous les jeunes juristes …
Déjà certains grands cabinets d’avocats en ont pris leur parti et réclament aux Universités : « Vous n’auriez pas des jeunes diplômés avec 3 ou 4 années d’expérience ? ».
Faut-il continuer à apprendre le droit ou s’en détourner pour développer ses connaissances en informatique, en sémantique, en statistiques ou encore en marketing ? Apprendre comme dans certaines Universités aux Etats Unis le droit et la psychologie (Law & Emotions). Où est le savoir fondamental ? Qui va former les jeunes au cours des premières années de leur parcours professionnel ? Les former sur quoi ? Pour leur donner quoi à faire ensuite ? Et aussi qui va prendre à sa charge le coût des premières années de la vie professionnelle de tous ces jeunes diplômés ?
J’ai assisté récemment à une conférence sur le thème de la justice prédictive. Tout le monde est dans le bleu. Tout le monde s’interroge. Le futur bâtonnier, les consultants (même s’ils arrogent le droit d’inventer des mots et de développer des matrices … « Les consultants ont tous les droits… ») les praticiens du droit mais aussi les professeurs. Christophe JAMIN, Professeur des Universités à Sciences Pp, doyen de l’Ecole de Droit de Sciences Po explique : « Installer des espaces collaboratifs partout dans l’université, mettre des écrans dans toutes les salles et dans tous les lieux de passage pour rester connectés, avec un peu de moyens, nous savons faire. A la fin il reste plein de questions. Former les jeunes ? Mais à quoi ? Et pour quoi faire ?»
Je ne peux m’empêcher de faire le parallèle avec mes premières années de vie professionnelle en audit. Comme la plupart d’entre vous j’ai appris mon métier dans un grand cabinet anglo-saxon. Comme tous les jeunes diplômés de ma génération j’ai suivi un parcours bien balisé par d’autres avant moi. J’ai appris sur le terrain. J’ai eu des mentors. Des seniors et des managers à qui j’ai fait confiance et qui m’ont fait confiance. J’ai été encadré puis j’ai moi-même encadré des plus jeunes. Les clients de ce grand cabinet n’étaient pas dupes. Ils savaient que nous débutions. Que nous démarrions un parcours. Les clients étaient prêts à payer même si, concrètement, nous ne savions pas faire grand-chose. Aujourd’hui, avec la pression sur les honoraires, les cabinets ne remplaceront-ils pas les jeunes diplômés par des algorithmes ?
Que deviendront à terme les DAF sans bagage technique, sans formation encadrée sur le terrain, sans mentors.
Vers des DAF « génération spontanée » ? Vers des robots à la place des DAF ?
Bien sûr il y a un consensus que la solution pour s’en sortir c’est la formation. Mais les choses vont trop vite. Personne ne sait concrètement sur quels métiers former les jeunes ? Ni vers quels enseignements fondamentaux les orienter…
Les former sur les algorithmes ?
Vous connaissiez déjà le machine learning et le deep learning …Bienvenue au reinforcement learning ! L’apprentissage par renforcement !
Concrètement c’est comme quand vous essayer d’apprendre à votre chien à s’asseoir. Vous dites « Assis ! » et si votre chien s’assoit vous lui donnez une récompense. Sauf que là le chien est un robot. Bonjour les risque de biais… La machine décide ce qui l’avantage. Ce qui est bon pour elle. Ce que quelqu’un a décidé qui était bon pour elle ?
Lors de cette conférence, un spécialiste explique que des chercheurs ont demandé à deux algorithmes différents de résoudre un problème complexe. Stupéfaction, les deux algorithmes ont développé un langage commun (incompréhensible pour les chercheurs) et échangent des informations pour parvenir à maximiser leurs gains réciproques. C’est ce que l’on appelle l’effet performatif. Je, quelqu’un, dis à la machine ce qu’elle doit chercher et trouver. Aussitôt dit, aussitôt fait. Elle y a un intérêt…Logique de coût ? Biais algorithmique ?
Dire c’est faire ! La bonne vieille méthode coué à la sauce IA …
Nous sommes très très loin de l’outil d’aide à la décision que l’on nous décrit …Tout le monde a les chocottes dans la salle. Tout le monde est unanime que l’on ne sait pas. En fait, on ne sait rien.
On sait seulement que l’on ne peut pas avoir confiance dans les algorithmes.
Zéro confiance !
Le juriste, le médecin, le financier, l’humain fonctionnent par déductions successives. Nous avons appris ainsi. Notre conception du temps est séquentielle et linéaire.
Les algorithmes fonctionnent par corrélations. Ils agissent sur des temps parallèles.
Qui a raison ? Qui a tort ?
Tout ce que savent les spécialistes c’est que dès que l’on ajoute des variables les corrélations changent. Pas très rassurant.
Et pourtant cela fonctionne déjà dans certains grands groupes. Par exemple pour détecter des fraudes à partir de transactions suspectes ou comme anormales.
L’algorithme sélectionne bien sûr les montants anormaux en fonction des cycles analysés au cours des périodes précédentes ou en fonction des profils utilisateurs, les transactions passées en dehors des heures habituelles de travail, le dimanche etc.
Mais la machine élabore aussi d’autres corrélations ; des corrélations auxquelles l’humain n’aurait pas pensé. Le fraudeur si, peut-être ! Le gang organisé sûrement ! Les grands groupes sont à la pointe de ces réflexions. N’est-ce pas légitime qu’ils se protègent ? Ils ont d’autre chose à faire que de se faire piller !
Nous en sommes tous là ! A nous interroger. Chacun dans notre coin, il faut bien le dire.
A ressasser la question du sens bien sûr mais aussi celle de l’efficacité et du coût …
Et les prévisions de trésorerie dans tout cela ? Subissent-elles déjà des biais algorithmiques ? Ou des biais tout court ? Et si oui quels biais ? Plaire aux dirigeants ? Plaire aux actionnaires ? Gagner du temps ?
Ces sujets vous intéressent. N’hésitez pas à vous inscrire à nos prochaines petit déjeuners sur les thèmes :
« Licornes ou Chimères : Variations et digressions autour du Business Plan … » qui se déroulera le Jeudi 22 Novembre 2018 à partir de 8 H 15
« L’indispensable prévision de trésorerie ! » qui se déroulera le Vendredi 23 Novembre 2018 à partir de 8 H 15.
Le programme détaillé et les formulaires de pré-inscriptions de tous nos événements sont disponibles sur le site www.citizen-cash.com.
Attention : le nombre de places est limité à chaque fois.
Il est préférable de vous inscrire à l’avance.
Au plaisir de vous accueillir nombreux et d’échanger tous ensemble quelques bonnes pratiques.
David BRAULT
Objectif CASH
Comentários