Les news d’Ilyeum

Où en sont les Ransomwares aujourd’hui ?
14-Jan

Où en sont les Ransomwares aujourd’hui ?

Rançongiciel ou Ransomware est un logiciel informatique malveillant qui prend en otage des données, personnelles ou professionnelles, contre une rançon. Ce type de logiciel, considéré comme un virus, chiffre les données puis demande à leur propriétaire d’envoyer de l’argent en échange de la clé qui permettra de les déchiffrer. Dans la plupart des cas, un rançongiciel pénètre le système via des Web Exploits[1] ou à travers un fichier téléchargé ou reçu lors d’une campagne de mailing.

Ce logiciel malveillant se propage de façon similaire à un cheval de Troie et se reproduit sur plusieurs machines via internet tel un ver informatique. Si les rançons demandées ne dépassent pas 500 euros pour un usage personnel, le prix à payer pour les entreprises peut facilement atteindre des millions d’euros, notamment si les données retenues en otage peuvent engendrer une perte financière significative. La somme d’argent à payer est généralement exigée en monnaie virtuelle afin d’éviter toute traçabilité.

Des hôpitaux britanniques, des constructeurs automobiles français, des ministères russes ainsi que plusieurs milliers d’entreprises et d’organisations ont été touchées dans le monde

Le virus est apparu pour la première fois en 2005 en Russie. Des versions modernes ont vu le jour dans d’autres pays tels que l’Australie, l’Allemagne ou les États-Unis. En novembre 2012, l’éditeur de logiciels de sécurité McAfee a enregistré 120 000 nouvelles attaques, soit quatre fois plus que l’année précédente. Entre 2016 et 2017, les rançongiciels ont enregistré une augmentation de 36 %, où l’entreprise Symantec, spécialisée dans les antivirus, annonce avoir bloqué près de 320 000 attaques. Scareware est le type de ransomware le plus simple et peut prendre la forme d’un logiciel antivirus dans lequel un message s’affiche soudainement, prétendant que la machine a plusieurs problèmes et que pour les résoudre, il est nécessaire d’effectuer un paiement en ligne. En mai 2017, le ransomware WannaCry a exploité une faille de sécurité des systèmes d’exploitation de Microsoft, particulièrement Windows XP, afin d’infecter plus de 300 000 machines dans 150 pays, exigeant une rançon en Bitcoins pour le déchiffrement. Des hôpitaux britanniques, des constructeurs automobiles français, des ministères russes ainsi que plusieurs milliers d’entreprises et d’organisations ont été touchées dans le monde.

Les cybercriminels se servent de la puissance des IA afin de mieux cerner leurs cibles en analysant d’énormes quantités de données

Omniprésente dans tous les domaines, l’intelligence artificielle est également sollicitée dans les ransomwares et la cybersécurité. Mais si on attend des solutions miracles de l’IA pour la protection des données et l’anticipation des attaques malveillantes, il est difficile de croire que l’IA est surtout utilisée pour mettre en place des attaques intelligentes. En effet, grâce à l’IA, il est très facile pour les pirates de mener des campagnes d’hameçonnage automatisées. De nos jours, il est élémentaire pour une IA de créer des emails avec un contenu pertinent, précis et sans aucune faute d’orthographe. Par ailleurs, les cybercriminels se servent de la puissance des IA afin de mieux cerner leurs cibles en analysant d’énormes quantités de données. Cela permet d’identifier les courriers qui génèrent le plus de clics, ainsi que le meilleur moment de lancer une attaque.

De nos jours, la menace ransomware est sans appel : des attaques plus ciblées, plus fréquentes et plus lourdes en conséquence. Oxibox[2] rapporte que près d’une attaque toute les 11 secondes a été signalée pour 700 M€ de pertes estimées pour les PME sur l’année 2019. Une entreprise sur cinq paie la rançon sans pour autant récupérer les données. A cet effet, il est primordial pour une entreprise d’anticiper une éventuelle attaque ransomware, en adoptant les bonne pratiques. Pour ce faire, il est essentiel d’avoir plusieurs sauvegardes des données et de les isoler sur des serveurs distants afin de les rendre invisibles aux attaques extérieures.

Les attaques ransomware ont connu une progression approximative de 500% depuis leur apparition, ce qui a engendré l’émergence d’entités permettant de lutter contre ces logiciels malveillants. De tels organismes proposent des services ayant pour but d’assurer à une entreprise de restaurer ses données indispensables sans impacter son activité. Des solutions de cyber-résilience sont mises en place afin de protéger les données et de garantir la capacité de redémarrage des systèmes d’information ainsi que la restauration complète des données.

[1] https://fr.wikipedia.org/wiki/Exploit_(informatique)

[2] https://www.oxibox.com/fr/

 

L’IA au Service de l’Humanité...mais pas de la Terre.
16-Dec

L’IA au Service de l’Humanité...mais pas de la Terre.

Le secteur informatique représente à lui seul près de 2% des émissions globales de gaz à effet de serre, surpassant l’impact carbonique de l’ensemble du secteur aérien. L’empreinte des technologies de l’information est de plus en plus préoccupante et ne montre que peu de signes d’amélioration. La technologie d’avenir qu’est l’Intelligence Artificielle (IA) en est un responsable notable.

L’IA a connu une ascension fulgurante ces dernières années grâce à l’émergence de deux de ses composantes que sont Machine Learning (ML) et Deep Learning (DL). Les techniques de ML et DL offrent aux machines la capacité d’apprendre par elles-mêmes à résoudre des problèmes à partir de larges volumes de données. Cette force a permis à l’IA de résoudre des problèmes critiques et de se démocratiser, au point de faire partie de notre quotidien par le biais des assistants personnels, des recommandations ou des filtres visuels. Néanmoins, ce type d’IA nécessite des puissances de calcul considérables et du matériel informatique adapté. La préparation d’une telle IA requiert la mobilisation de ressources importantes pendant une large période de temps, ce qui dans le cas des plus grosses IA, nécessite plusieurs semaines sur supercalculateurs, voire datacenter. Les infrastructures et l’énergie nécessaires pour mettre en place une IA induit un impact carbone considérable, allant parfois au-delà de 284t de CO2 par entrainement…soit l’équivalent des émissions de 5 voitures, sur l’ensemble de leur vie, et ce pour une seule IA ! Par exemple, l’IA de Deepmind, AlphaGo, qui a battu le champion du monde de Go, a causé l’émission de 96t de CO2 pour sa conception, soit autant que 1000h de vol d’un avion de ligne. Selon OpenAI, la puissance de calcul utilisée par les plus volumineuses IA a été multipliée par 300 000 entre 2012 et 2018, et cette progression continue à ce jour…Mais à quel prix pour la planète ?

« Par ailleurs, même si l’IA a un impact négatif, ses capacités permettent des effets positifs dans de nombreux contextes »

Même si l’émergence du Green Computing laisse présager des technologies informatiques plus durables, le monde de l’IA n’y est, pour l’instant, que peu sensible. Les préoccupations environnementales sont rarement prises en compte dans la Data Science et la conception d’IA : le but est d’obtenir les IA les plus efficaces ou les plus marquantes, à n’importe quel prix. Cela est d’autant plus vrai que concevoir une IA pertinente nécessite de nombreux entrainements et évaluations, chacun ayant un impact carbone non négligeable. Mais si la culture IA ne fait pas bon ménage avec le Green Computing, les acteurs du domaine sont de plus en plus sensibilisés grâce, entre autres, à de nombreuses études démontrant l’impact négatif de l’IA, mais aussi du fait de l’émergence de nouveaux outils d’IA plus verts. Par ailleurs, même si l’IA a un impact négatif, ses capacités permettent des effets positifs dans de nombreux contextes, en permettant par exemple à des machines industrielles d’être plus efficaces ou encore en gérant les réseaux énergétiques de manière optimale. L’IA pourrait peut-être, et avant tout, s’aider elle-même, comme elle l’a fait avec l’AutoML. Car une chose est sûre : l’IA, par son importance et son impact, ne doit pas servir que l’humanité, mais la planète tout entière…et elle en est encore loin.

https://spectrum.ieee.org/energywise/artificial-intelligence/machine-learning/energy-efficient-green-ai-strategies

https://openai.com/blog/ai-and-compute/

New MIT Neural Network Architecture May Reduce Carbon Footprint by AI

 

 

ECAI 2020 - Automatiser le machine learning : un projet d'Ilyeum Insights sélectionné à la Conférence européenne de l'IA
14-Oct

ECAI 2020 - Automatiser le machine learning : un projet d'Ilyeum Insights sélectionné à la Conférence européenne de l'IA

Conférence biennale internationale, ECAI (European Conference on Artificial Intelligence) réunit les experts du domaine de l’intelligence artificielle dans sa globalité. Du fait des conditions sanitaires, elle a réuni plus de 5000 participants en visioconférence pour son édition 2020, qui s’est tenue du 29 août au 24 septembre dernier.

Pour Ilyeum Insights, il était naturel de participer à cette conférence : le centre de recherche d’Ilyeum a présenté sa solution dédiée à l’analyse automatisée des contrats.

L’IA : une solution pragmatique pour des problématiques ciblées

Depuis sa création, Ilyeum intervient sur des sujets tels que la représentation de la connaissance, le raisonnement ou la vision par ordinateur, ainsi que sur les enjeux éthiques de l’IA. Les concepts développés par le lab Ilyeum Insights s’appuient sur une démarche scientifique : identifier une problématique, puis proposer une solution adéquate fondée sur un usage pragmatique de l’IA.

Un assistant automatique en analyse des contrats

Le nouveau POC présenté à la conférence, un assistant d’analyse de contrats, est né d’un constat simple :

  •  Lors de la mise en place d’un accord, les contrats sont discutés, échangés et modifiés par chacune des parties
  • Une fois le contrat retourné au prestataire, il est donc indispensable, pour chaque partie, de le relire en entier pour déceler les modifications, afin de les accepter ou de les rejeter
  • Ces changements, aussi minimes soient-ils, peuvent avoir des conséquences très importantes. D’autant qu’il peut être difficile de déceler ces modifications à l’aide des solutions existantes de suivi des modifications.

A chaque e-mail, l’assistant humain en charge de l’analyse des contrats doit donc relire toutes les clauses pour déceler les changements. Dans le cas d’une entreprise en croissance, cette tâche peut être extrêmement chronophage.

“Il fallait donc une solution capable d’aider les collaborateurs à négocier les contrats de façon automatisée, et d’éviter à l’assistant humain d’avoir à relire toutes les clauses, une à une, pour déceler les changements”, explique Baba Seydou Bamba, Manager innovation chez Ilyeum Insights.

Automatiser la relecture des contrats : un défi de taille

La majorité des IA s’appuie sur une base de connaissances données. Or, les typologies de contrat varient d’une entreprise à l’autre, ce qui peut altérer la performance de certains algorithmes lorsqu’ils détectent un vocabulaire spécifique à une entreprise. Cela soulève alors deux problématiques :

  • Comment s’assurer de rendre cette solution duplicable ?
  • Comment choisir des critères de validité génériques ?

Pour y répondre, l’équipe d’Ilyeum Insights s’est donc appuyée sur une technologie spécifique : l’automated machine learning.

Dans une approche classique de conception d’une IA, le data scientist épurer d’abord la base de données. Puis il évalue et sélectionne les algorithmes et hyparamètres les plus pertinents, qui traitent les données durant plusieurs heures, voire plusieurs jours.

Avec l’auto auto ML, il s’agit d’automatiser le processus dès cette phase de filtrage.

Résultat : des opérations qui, habituellement, duraient une ou deux heures sont réduites à trente minutes, grâce à une lecture rapide et efficace.

Cette solution s’est vue obtenir la validation du  le comité d’experts de l’ECAI.

Aujourd’hui, la question qui se pose est celle des métiers liés au digital. En effet, certains métiers directement affiliés à l’intelligence artificielle, entre autres, pourraient se révéler obsolètes dans quelques années. Même si cette problématique n’est pas encore observée, c’est maintenant qu’il faut se poser la question, afin de préparer la société de demain, qui s’articulera dans plusieurs de ses aspects autour de l’usage de l’IA.

“En ces temps de turnover fort, l’évolution professionnelle est essentielle pour retenir les talents à bord” : Morgane Brissy, DRH chez Ilyeum, explique la philosophie du management chez Ilyeum
18-Sep

“En ces temps de turnover fort, l’évolution professionnelle est essentielle pour retenir les talents à bord” : Morgane Brissy, DRH chez Ilyeum, explique la philosophie du management chez Ilyeum

Dans un contexte d’incertitude, il est essentiel pour les entreprises de placer le collaborateur au centre des processus de réflexion. Chez Ilyeum, cette réflexion aboutit à un investissement considérable dans la formation et la certification.  L’accès à la montée en compétences et à l’évolution professionnelle constitue-t-il un rempart contre le turnover ambiant ? Bien plus que cela, il renforce l’esprit d’appartenance et la performance collective. Morgane Brissy, DRH chez Ilyeum depuis six ans, explique en quoi ces atouts se révèlent essentiels, notamment en temps de crise.

 L’importance d’une collaboration continue entre consultants et managers

La crise actuelle peut avoir un impact significatif dans la gestion des compétences humaines en entreprise : elle peut accentuer le fossé entre le corps managérial et les collaborateurs. Le climat anxiogène actuel peut également jouer un rôle déterminant dans le sentiment d’isolement et les incompréhensions. Cependant, il est possible d’éviter ces écueils, à condition qu’un cadre de travail basé sur la confiance mutuelle ait été préalablement défini. C’est précisément sur cet axe qu’Ilyeum positionne sa politique de recrutement et de management, et ce dans ses services : finances, commercial, ressources humaines et innovation (Ilyeum Insights).

Nous misons davantage sur des personnalités que sur un CV. Des personnalités dont les valeurs correspondent aux valeurs du groupe, telles que l’esprit d’entreprise et le sens du collectif. Mon rôle est de réunir ces personnalités et de créer un cadre dans lequel elles pourront gagner en expertise et en compétences”, souligne Morgane Brissy.

Former et certifier : un moteur puissant pour monter en compétence et être reconnu

Dès le premier jour d’intégration, les collaborateurs sont invités à faire connaître leurs objectifs professionnels, leurs attentes et les compétences supplémentaires qu’ils souhaitent acquérir. S’ensuit une démarche d’accompagnement quotidien par le manager, qui se conclut par une certification annuelle. Grâce à cette prise en charge, chaque collaborateur a la certitude que son expertise sera enrichie et reconnue, ce qui accentue l’esprit d’appartenance et enrichit la valeur ajoutée de l’entreprise en tant que marque employeur. Les formations les plus fréquentes concernent la méthodologie de gestion de projet (méthode Agile), l’environnement de travail, les compétences techniques telles que ReactJS ou Angular ou bien les technologies Microsoft, ainsi que le développement personnel, l’anglais et les formations certifiantes.

L’entreprise est actuellement en cours de référencement et de partenariat avec différents éditeurs comme Sensiolabs ou Microsoft.

Faire évoluer personnellement les experts : un engagement peu commun et porteur

La possibilité d’évolution professionnelle est un facteur majeur. Bien plus que cela, en ces temps où le turnover est la règle, Ilyeum a misé toute sa stratégie sur l’accompagnement, autant professionnel que personnel”.

Ainsi, Ilyeum propose à ses collaborateurs des ateliers de coaching :

  • pour améliorer leur gestion de la relation client ou des réunions stratégiques
  • mieux utiliser leurs points forts et déceler les points d’amélioration dans leur pratique professionnelle
  • gérer le stress et la prise de parole en public
  • peaufiner les arguments de vente et la communication
  • améliorer les relations interprofessionnelles entre les différents niveaux de management.

Nous travaillons avec des spécialistes de la performance en entreprise, tels qu’Amenity pour aider nos collaborateurs à prendre en main des problématiques stratégiques grâce à leurs soft skills”, précise Morgane Brissy.

Le manager “accompagnant”, clé de voûte de la performance

 Chez Ilyeum, le temps alloué à la formation et à l’accompagnement des collaborateurs fait partie des attributions du manager. “Concrètement, tous les deux mois, les managers rencontrent les consultants pour faire le bilan de leurs compétences et de leurs besoins en formation ou en coaching. Ces derniers savent également qu’ils peuvent s’adresser à leurs managers quand ils en ont besoin, dans une logique de management horizontal”, explique Morgane Brissy.

L’entreprise s’inscrit ainsi dans une nouvelle vision de l’employeur, davantage leader que donneur d’ordres, appelée à inspirer et à faire grandir.

L'IA FACE AU CORONAVIRUS
10-Aug

L'IA FACE AU CORONAVIRUS

Au fil des années, l’IA a toujours été d’actualité et a su proposer des solutions, prévisions et recommandations utiles. Peu avant le signal d’alerte épidémique de l’OMS, une IA s’était doutée d’un comportement anormal, sans pour autant réussir à prévoir de tels chiffres. Il faut bien croire que personne ne comprenait ce qui se passait ni ce qui se préparait. Le monde entier vit actuellement une période pandémique où l’économie à l’échelle mondiale, a connu un déséquilibre sans égal, menant à l’arrêt de plusieurs industries. Mais si l’IA n’a pas prévu cet état pandémique, pourra-t-elle se rattraper en trouvant des solutions ? en tout cas, la lutte acharnée de l’IA contre le Covid-19 a déjà commencé.

La contribution de l’intelligence artificielle dans le domaine de la médecine

Portée par l’émergence des approches par apprentissage, la notion d’IA est devenue omniprésente dans le domaine médicale, de l’assistance des aide-soignant au diagnostic de radios. Il faut savoir que l’IA[1] est capable de lire les scans IRM cardiaques 186 fois plus rapidement qu’un expert humain. Grâce à l’imagerie optique[2], une IA, entraînée sur 2,5 millions d’images de biopsie, arrive à détecter le type de cancer parmi les 10 tumeurs cérébrales les plus fréquentes et ce, en 2min seulement. En identifiant rapidement ces tumeurs, leurs stades et ainsi leurs gravité, nous avons pu faire un bond en avant dans la prévention, le traitement et le suivi, où maintes applications IA[3] ont été conçues pour les patients et les médecins. Les IA, matérielles et logicielles, ont déjà fait leur preuve dans la médecine, et leurs apport envers la santé est une réalité que nous vivons actuellement, où l’IA ne cesse de lutter contre le virus du Covid-19.

Il est vrai que la situation pandémique actuelle met à mal les IA, qui n’ont pas prévu cette propagation, n’ont pas encore trouvé de vaccins et ne cessent de recommander des produits inutiles. Cette déception envers l’IA, que certains qualifient d’échec, n’a pas lieu d’être car, c’est tout simplement le manque de données et la soudaineté de la crise qui ont mis à mal les modèles établis et ce, pour les machines comme pour les humains. Un système IA nécessite une masse de données volumineuses lors de l’apprentissage afin d’atteindre une performance optimale. De tels systèmes apprennent par eux-mêmes à résoudre un problème donnée, ce qui nécessite de leur fournir au départ les bons exercices avec corrigés, autrement le résultat sera biaisé. C’est le cas des recommandations inutiles, où la soudaineté des événements actuels a changé nos routines, laissant place à de nouvelles priorités que l’IA ne saura prédire.

Peu de temps après l’alerte pandémique, l’IA a repris les choses en mains, grâce aux nouvelles données acquises qui ont permis à l’IA d’apprendre à nouveau et de corriger ces erreurs. Néanmoins, il ne faut pas oublier que le 30/12/2019, le système IA de BlueDot[4], une start-up spécialisée dans la surveillance des épidémies, avait déjà donné l’alerte sur un nouveau virus. Conçu pour détecter et suivre les risques de propagation de maladies infectieuses (en passant en revue des articles de presse et des données du trafic aérien) ce système IA a repéré une anomalie dans le nombre de cas de pneumonies dans la région de Wuhan. Le modèle a non seulement détecté le début de l’épidémie en Chine, mais a également prédit sa propagation à Bangkok, Séoul et Tokyo.

La lutte des IA contre le Covid-19 pendant le confinement

Peu après l’annonce officielle de l’Organisation Mondiale de la Santé (OMS) au grand public de l’épidémie de type grippal, une mobilisation mondiale pour une lutte acharnée contre le virus a démarré. Cela s’est manifesté en plusieurs recherches et publications sur le virus et sa gravité, ce qui donna lieu à une quantité de données[5] volumineuses. Ainsi, grâce à l’imagerie médicale[6], nous avons pu diagnostiquer toutes les étapes du virus et faire un suivis des radios[7], au travers des techniques de vision et d’IA. Les progrès de l’IA ont commencé à se ressentir, particulièrement quand l’IA a bien prédit le pic de l’épidémie[8]. En prenant connaissance de plusieurs nouveaux paramètres, tels que le taux de contamination en fonction de mesures d’hygiène et de confinement, il était possible de tracer des courbes pandémiques, pouvant prédire le pic.

Aujourd’hui, l’IA dans toute ses formes, est impliquée, dans la lutte que nous menons contre le virus. A échelle public, la livraison en Chine, USA et autres pays est un exemple parmi tant d’autre où les robots prennent le relais dans plusieurs services afin de limiter le contact humain. Dans plusieurs hôpitaux, on retrouve des robots qui allègent le travail des soignants, qui désinfectent les lieux, qui donnent à manger, qui prennent la température et qui permettent de communiquer avec les médecin. Au Rwanda, des robots multitâches[9] ont été déployés, permettant non seulement de réaliser les corvées habituelles de contrôle médical, mais aussi de détecter les cas suspects. Une telle assistance nous a permis de mieux vivre le confinement et de contrôler davantage la mortalité du virus.

La lutte des IA est plus sérieuse que les efforts humains !

Le confinement est certes levé, mais le virus est encore là et sa propagation est loin d’être terminée, surtout avec notre manque de respect des gestes barrières qui ne fait qu’augmenter les cas à nouveaux. Plusieurs travaux de recherches ont déjà été entamés pour trouver un vaccin et nombreux sont les projets autour de l’IA. Mais si nos espoirs reposent sur la machine, l’humain se doit de respecter au minimum les différents gestes barrières. Ces derniers, auparavant anodin, sont devenus d’actualité et par conséquent suivis par l’IA, qui est sollicitée, cette fois, d’une façon plus originale. En effet, grâce à des caméras thermiques ou infrarouges, l’IA mesure la température pour détecter la fièvre et ainsi les personnes potentiellement contaminées. Dans les espaces publics, la vérification de la distanciation sociale[10] ou le port de masque[11] font toujours débats au niveaux d’organismes tel que la CNIL. A titre plus personnel ou professionnel, l’IA peut même surveiller le bon lavage des mains[12].

C’est dans cet état d’esprit, que nous avons développé, à Ilyeum Insights, une IA qui vérifie si le masque est porté, à l’entrée des locaux. En quête d’innovation et dans le but de lutter contre le Covid-19, notre modèle arrive également à distinguer si le masque est correctement porté, autrement une alerte sera signalée. Jugeant qu’un masque trop bas ou sur le côté est équivalent à un masque non porté, nous avons poussé le système à indiquer les consignes à suivre dépendamment de chaque situation. La lutte contre le Covid-19 est certes universelle, repose fortement sur l’IA, mais dépend principalement de nos actions.

[1] https://www.lebigdata.fr/ia-scans-irm-cardiaques

[2] https://www.usine-digitale.fr/article/cette-technique-couplant-deep-learning-et-imagerie-optique-est-capable-de-detecter-un-cancer-du-cerveau-en-moins-de-trois-minutes.N917349

[3] https://sante.lefigaro.fr/article/7-applications-mobile-sante-qui-se-sont-faites-remarquer/

[4] https://bluedot.global/

[5] https://www.kaggle.com/datasets?search=Covid-19

[6] https://ici.radio-canada.ca/nouvelle/1703287/intelligence-artificielle-covid-imagerie-tdm-hopital-poumons

[7] https://www.heidi.news/sante/face-au-coronavirus-la-course-technologique-pour-mettre-l-ia-au-service-de-l-imagerie-medicale

[8] https://www.sciencesetavenir.fr/sante/coronavirus-a-quelle-date-le-pic-est-il-prevu_141264

[9] https://www.jstm.org/covid-19-des-robots-pour-assister-le-personnel-soignant-au-rwanda/

[10] https://towardsdatascience.com/covid-19-ai-enabled-social-distancing-detector-using-opencv-ea2abd827d34

[11] https://www.neozone.org/innovation/drone-volt-mise-sur-lintelligence-artificielle-pour-la-detection-de-port-de-masque/

[12] https://www.fujitsu.com/global/about/resources/news/press-releases/2020/0526-01.html

ILYEUM, SOLIDAIRE ET ENGAGE POUR L’AVENIR
29-Jul

ILYEUM, SOLIDAIRE ET ENGAGE POUR L’AVENIR

A l’avant-garde des technologies de l’information, de la transformation digitale et de la Data, ILYEUM a un pied dans son époque et l’autre dans le futur. C’est certainement ce qui lui permet d’avoir une conscience accrue d’enjeux aussi actuels que la préservation de l’environnement ou la nécessité de favoriser la diversité.

ILYEUM – 65 Salariés, ou plutôt – comme le dit la DRH, Morgane Brissy – 65 membres d’une même tribu. Comme dans n’importe quelle entreprise, ils ont des objectifs communs, mais ici, ils ont aussi des valeurs communes et ça change tout. Il faut dire que l’entreprise qui fête ses 10 ans d’existence cette année, s’est employée, sous l’impulsion du PDG et Fondateur Mohammed Chouiter, à ne pas perdre de vue la dimension humaine de cette aventure. Ce dernier ne dit-il pas lui-même que la clé de la réussite, c’est l’empathie collaborative ? En vérité, la boussole d’ILYEUM n’indique pas le nord, mais elle désigne toujours l’humain, en priorité. Ils ont beaux construire des ponts vers le futur, les technologies de l’information se doivent d’être au service de l’Homme, et non l’inverse. C’est parce que ce raisonnement ne leur fait jamais défaut, qu’en 2019 ils ont investi 200 000 € pour la formation, le coaching et la montée en compétence de leur personnel. En parallèle, l’entreprise organise des conférences, des afterworks ou encore des webinaires pour distiller dans le quotidien de chacun, de la connaissance, des moments de détente, ou encore des pauses culturelles. L’intervention d’Anthony Alfont, le Chief Operating Officer de chez DIGITAL FOR THE PLANET est un bel exemple des actions menées en interne. Cette fois-là, il s’agissait de sensibiliser les collaborateurs à la pollution 3.0. Chacun y aura gagné une plus vaste conscience du problème et un ensemble de bonnes pratiques afin de réduire au minimum son impact en matière de pollution numérique.

Si parmi les préoccupations d’ILYEUM se situe en pole position l’équité sociale, c’est que les salariés et les consultants d’ILYEUM viennent tous d’horizons bien différents. Ici chacun en est persuadé, c’est une force. C’est dans ce cadre que l’entreprise a signé il y a quelques semaines la Charte de la Diversité. Cette signature, ce n’est pas seulement un engagement pour le futur mais aussi la concrétisation de plusieurs années d’actions menées dans ce sens. Par conviction, l’entreprise a fait sienne cette volonté de sensibiliser sa communauté à la non-discrimination, d’établir une saine égalité des salaires entre homme et femme, et de promouvoir les richesses de la diversité. Voilà le ciment de sa politique interne, bien que parler de politique est presque une contre-vérité. Pour le formuler autrement, la diversité et la différence y sont accueillies avec une authentique bienveillance, ça n’est pas de la politique, c’est leur credo.

 La clé de la réussite, c’est l’empathie collaborative 

Il y a un an environ, le Chief Happiness Officer d’ILYEUM, Larry, a organisé une action auprès des RESTOS DU CŒUR. Cette première expérience a sensibilisé les salariés. Depuis, ils se relaient régulièrement auprès de l’association pour distribuer des repas. Des collectes ont aussi vu le jour au sein de l’entreprise pour récupérer, à destination des plus démunis, des jouets et des vêtements ; une façon de recycler intelligemment et de favoriser un mode de vie plus responsable. L’année dernière, ILYEUM a croisé le chemin du CAFE DE L’AVENIR, une association à but non lucratif qui s’est donnée pour mission d’aider les étudiants à la recherche d’un premier emploi. L’entreprise participe aux séances d’accompagnements de ces jeunes, organisées chaque mois à Paris, avec d’autres sociétés participantes.  Les salariés d’ILYEUM gardent en tête qu’aider la jeunesse est aussi une belle manière de participer au monde de demain, c’est pourquoi ceux qui le désirent viennent les aider à construire un bon CV, les guident et leur apportent la confiance nécessaire pour passer les premiers entretiens d’embauches. Parfois, c’est un jeune entrepreneur qui a besoin d’un coup de pouce pour la création de son site internet. C’est là l’une des expertises d’ILYEUM. Même le site internet de l’association en a bénéficié. On met également à disposition de l’association la grande salle de réunion de l’entreprise parce qu’après tout, qu’est-ce qu’une salle de réunion au regard de ce que chacun peut trouver dans ces échanges ? Rien qui ne vaille la satisfaction d’avoir œuvré pour une cause juste.

Les salariés d’ILYEUM gardent en tête qu’aider la jeunesse est aussi une belle manière de participer au monde de demain.

En prenant de la hauteur, en refusant de se laisser happer uniquement par la pression constante du résultat, ILYEUM parvient à concilier efficience et conscience. Pour une entreprise qui se doit de voir loin, actrice de la transition technologique, cette approche environnementale et humaniste a de quoi rassurer les pessimistes et les inquiets, car tout en poursuivant son développement, ILYEUM garde dans sa mémoire vive cette citation de Rabelais, « Science sans conscience n’est que ruine de l’âme ».

Comment mettre en place une plateforme de e-commerce dans un contexte de croissance ?
20-Jul

Comment mettre en place une plateforme de e-commerce dans un contexte de croissance ?

ILYEUM est intervenu dans le cadre du plan de transformation numérique de l’INA, pour métamorphoser le site de vente de l’établissement public en véritable plateforme de vente de contenus audiovisuels BtoB. Mission accomplie.

 Issu de l’éclatement de l’ORTF en 1975, l’INA est devenu une véritable institution dans le paysage audiovisuel français. Grâce à sa mission de conservation des archives de la télévision et de la radio, l’établissement public abrite un fabuleux fond d’archives audiovisuelles, qu’il est chargé de restaurer et de valoriser. « Nous sommes intervenus dans le cadre du projet de transformation digitale de l’INA, déclare Baba Seydou Bamba, manager Lab. R&D et Innovation chez ILYEUM, et qui œuvrait comme chef de projet. Nous avons remporté un appel d’offres pour le développement d’un site de e-commerce BtoB. Le but était d’adapter l’institut à l’ère digitale, afin qu’il réponde aux évolutions des modes d’accès et de consommation des images et aux usages du numérique ».

Divisé en plusieurs lots, le plan comportait un programme baptisé E-commerce, dont l’objectif était de refondre les sites web de e-commerce de l’INA, dont le site de vente aux professionnels des médias en ligne et de l’audiovisuel, mediaclip.ina.fr .L’objectif était de répondre aux besoins des nouveaux marchés des acteurs de l’information et de la communication digitale. L’INA souhaitait digitaliser l’accès aux contenus dans un site de vente en ligne, qui a pour vocation d’être une véritable plateforme de gestion et d’acquisition de contenus vidéo. La plateforme devait commercialiser les offres forfaitaires de l’INA ainsi que ses offres de services et de conseils.

De la difficulté d’intégrer un site de e-commerce dans le legacy

ILYEUM ayant remporté l’appel d’offres sur la qualité de son offre au regard du budget proposé, il ne restait plus qu’à répondre aux exigences du cahier des charges. Établissement public oblige, les contraintes de l’INA en termes techniques et de service public donnaient au projet une complexité spécifique. Outre les exigences conventionnelles de capacités de montée en charge et d’expérience utilisateur, le site devait également s’insérer dans l’environnement technique existant des systèmes d’information de l’INA et de ses applicatifs. Le fameux legacy.

Pour accomplir sa mission, les développeurs d’ILYEUM ont eu recours à l’environnement de développement Magento, suivant les exigences du cahier des charges. Magento est un framework qui propose de nombreuses fonctions prêtes à l’emploi pour la création de sites de e-commerce. « Nous nous sommes appuyés sur les modules développés pour Magento, explique Baba Seydou Bamba. Mais, comme dans tout projet qui doit s’intégrer dans l’existant, il nous a fallu customiser certaines parties, en développant des extensions spécifiques, comme des connecteurs au système de l’INA, et des passerelles afin d’éliminer les goulets d’étranglement. Nos développeurs ont dû modifier le fonctionnement de certains modules de Magento pour l’adapter au système existant, qui comportait des développement propriétaires faits antérieurement », ajoute-t-il.

Une équipe agile et dédiée

En effet, l’environnement technique dans lequel devait s’insérer le site exigeait des intégrations tierces. Le but était de pouvoir connecter de manière transparente le site aux applicatifs existants de l’INA, comme l’outil de gestion des commandes et les accès aux plateformes de stockage des contenus. « Nous avons mobilisé une équipe de cinq développeurs sur le projet, dont trois permanents, et deux à temps partiel qui venaient renforcer l’équipe de base lorsque cela s’avérait nécessaire », déclare Baba Seydou Bamba.

Comme à leur habitude, les équipes d’ILYEUM ont travaillé en mode Scrum ce qui a accéléré les délais entre les tests et les livraisons en mode DevOps . Baba Seydou Bamba étant le Scrum Master a coordonné l’équipe Scrum et le client. « Nous avons l’habitude de travailler en mode Scrum, ce qui nous a permis d’avancer rapidement et d’avoir des livrables réguliers, chaque semaine en moyenne. Le processus de validation passait ensuite par les tests effectués par les métiers. Une fois que les modules étaient validés, nous reprenions le processus qui passait par le pipeline DevOps, que nous avions mis en place pour envoyer d’autres livrables », explique Baba Seydou Bamba. Et ce, jusqu’à la livraison finale du projet.

En traduisant les savoir-faire de l’INA dans son site de e-commerce, ILYEUM a permis à l’institut d’améliorer les services offerts aux clients professionnels de l’audiovisuel, et de consolider ses missions et ses savoir-faire dans l’écosystème audiovisuel et numérique français. À présent les clients professionnels du site disposent d’un véritable outil de travail, qui propose des contenus éditorialisés, triés, accessibles sans délai et juridiquement conformes à la réglementation sur les droits patrimoniaux et de diffusion.

Quand les IA Dérapent... Ou les Limites de l'Apprentissage par l'Exemple
09-Jul

Quand les IA Dérapent... Ou les Limites de l'Apprentissage par l'Exemple

Il est bien connu que l’erreur est humaine. C’est une des raisons pour laquelle, au fil des années, l’humain a laissé place à la machine dans de nombreux processus. Aujourd’hui, l’émergence de l’IA laisse entrevoir des automatisations complexes, fiables et robustes de tâches. Mais la réalité est bien différente ! Il apparaît en effet que les IA sont parfois toutes aussi étourdies et biaisées que leurs professeurs : les humains.

Y a-t-il un jour sans que l’Intelligence Artificielle (IA) ne fasse parler d’elle ? Portée par l’émergence du Machine Learning (ML) et du Deep Learning (DL), la notion d’IA est aujourd’hui omniprésente dans notre quotidien. Il faut dire qu’elle a fait l’objet de nombreux coups d’éclat, démontrant ses capacités à surmonter de nombreux problèmes et à automatiser divers processus. Grâce à des approches par apprentissage, les IA sont largement utilisées dans la santé, la surveillance, la finance ou encore la recommandation de contenus. Mais si elles font les unes pour leurs incroyables performances, les IA se font également connaître par leurs erreurs ! Ainsi, l’actualité si particulière liée au confinement met à mal les IA qui ne comprennent plus nos comportements [1,2] : cela mène à des recommandations erronées, ou pire, à des commandes de matériels inadéquates… Et les exemples sont nombreux. Mais, alors que les solutions d’IA aboutissent à des résultats remarquables, comment expliquer de tels dérapages de leur part ?

« Les exemples de dérapages sont communs, et ce même chez les leaders mondiaux de l’IA. »

Les difficultés dernièrement rencontrées par les IA ne sont pas des cas isolés. Une situation particulièrement notable a été celle du chatbot de Microsoft en 2016. Nommé Tay, ce chatbot était à même d’apprendre des utilisateurs et de dialoguer sur Twitter. Résultat : Tay est devenu raciste et a été désactivé en moins 24h [3] ! En 2015, Amazon a expérimenté une IA pour son recrutement, mais a fait marche arrière quand il a été constaté que l’IA était biaisée à l’encontre des femmes [4]… Google n’est pas en reste puisque son IA de détection de contenus haineux a été démontré comme étant biaisé négativement envers les « African Americans » [5]. Watson de IBM, malgré ces nombreux succès, a également connu des déboires, en particulier dans le milieu médical pour la détection de cancer où il s’est avéré inutilisable dans la plupart des cas [6]. Il ne s’agit là que de quelques exemples de dérapages, qui sont finalement communs, et ce même chez les leaders mondiaux de l’IA. Mais toutes ces IA ont un point commun : elles reposent sur le Machine Learning et l’apprentissage par l’exemple.

« Les erreurs humaines sont propagées aux IA au travers des données. »

Le Machine Learning est-il donc source d’erreurs ? Indirectement ! Pour mieux comprendre, il est  intéressant de connaître le fonctionnement des solutions par apprentissage. Le but du Machine Learning, dont le Deep Learning, est de générer automatiquement un programme, ou modèle, pour résoudre un problème donné à partir d’un ensemble de données. Ainsi, les approches prennent en entrée un jeu de données d’exemple, le plus souvent massif, annoté à la main, et reposent sur divers algorithmes pour générer un modèle. Alternativement, l’apprentissage par renforcement, qui repose sur un système de récompenses défini par le concepteur, est aussi communément utilisé. Cependant, les IA reposant sur le Machine Learning ne comprennent que peu la sémantique des problèmes et des données : elles se contentent de répéter ce qu’elles ont vu, et sont incapables d’expliquer leur raisonnement (fonctionnement en « boîte noire »). Les données d’entrée sont donc critiques, mais sont fournies par des humains qui ne sont pas infaillibles ! C’est typiquement ce qui est arrivé à Tay, qui a appris à partir de trolls qui lui ont insufflé des concepts racistes. En ce qui concerne les IA de Google et d’Amazon, les jeux de données fournis étaient déséquilibrés selon les différentes populations, menant à des biais ne reflétant pas la réalité. Idem pour Watson où les exemples de données fournis n’étaient pas corrects… Quant au problème causé par notre confinement, les IA n’ont tout simplement jamais vu de telles situations dans leurs exemples. Les humains qui fournissent les données peuvent eux-mêmes être biaisés, non-exhaustifs, manquants d’expertise métier et/ou, bien entendu, vecteurs d’erreurs : ces erreurs humaines sont ensuite propagées aux IA au travers des données. Les IA basées sur le Machine Learning ne font que ce qu’on leur a appris, bêtement.

« Résoudre les problèmes de l’IA passera par le changement de comportement des concepteurs »

Ce problème de non-exhaustivité et d’erreurs dans les données est un problème de fond du Machine Learning, qui est de plus en plus étudié, en particulier au regard des considérations éthiques [7,8]. Les problèmes du « white guy » et de racisme sont en effet bien présents dans le milieu du Machine Learning [9,10], mais sont difficiles à résoudre car étant des problèmes sociétaux plutôt que technologiques. Au-delà de ces enjeux, les IA sont très dépendantes du contexte et de l’expertise métier sous-jacente : lors de la conception d’une IA par apprentissage, il est impératif de reposer sur des experts pour la préparation de jeux de données. Dans de nombreuses situations, les données disponibles sont utilisées aveuglément car supposées suffisamment volumineuses pour être exhaustives, ce qui n’est que rarement le cas. L’émergence de solutions d’AutoML, qui simplifient la mise en place de solutions de Machine Learning, ne fait qu’aggraver ce problème. Ainsi, résoudre les problèmes de l’IA passera par le changement de comportement des concepteurs : l’IA est face à un défi de plus, qui cette fois est sociétal.

« L’avenir réside sans doute dans les Intelligences Artificielles Générales. »

Mais si l’IA est aujourd’hui largement propulsée par le Machine Learning et le Deep Learning, il existe d’autres formes d’IA. Les GOFAI (pour « Good Old-Fashioned Artificial Intelligence ») sont présentes depuis plusieurs années, en reposant principalement sur des connaissances expertes. Ces IA peuvent mieux cerner la sémantique des problèmes et sont mieux contrôlées, mais sont applicables à des contextes limités. Néanmoins, l’avenir réside sans doute dans les Intelligences Artificielles Générales (AGI) qui visent à répondre à n’importe quel problème. Ces dernières auraient la capacité de comprendre les problèmes pour en proposer une solution adaptée, réfléchie, motivée et éthique. Cependant, le chemin pour atteindre de telles IA est encore long, même si des avancées matérielles et algorithmiques sont réalisées chaque jour [11].

En attendant, de multiples acteurs abordent l’amélioration des solutions de Machine Learning. C’est le cas de Ilyeum Insights, qui travaille sur une nouvelle solution d’AutoML prenant en compte l’expertise métier. Grâce à une formalisation des connaissances métiers sous formes de règles, l’approche de Machine Learning est capable de générer une composition de modèles qui résolvent des sous-problèmes spécifiques au besoin: ainsi, au lieu de proposer une unique solution globale, plusieurs solutions dédiées et spécialisées sont proposées (et ce automatiquement), limitant le risque d’erreurs.

Ces avancées nous permettent d’aller plus loin et de nous diriger vers une IA négociatrice de contrats… qui ne dérape pas !


Références

  1. https://www.lebigdata.fr/covid-19-bug-ia
  2. https://www.technologyreview.com/2020/05/11/1001563/covid-pandemic-broken-ai-machine-learning-amazon-retail-fraud-humans-in-the-loop/
  3. Wolf, Marty J., K. Miller, and Frances S. Grodzinsky. « Why we should have seen that coming: comments on Microsoft’s tay » experiment, » and wider implications. » ACM SIGCAS Computers and Society3 (2017): 54-64.
  4. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
  5. Sap, Maarten, et al. « The risk of racial bias in hate speech detection. » Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. 2019.
  6. Ross, Casey, and Ike Swetlitz. « IBM’s Watson supercomputer recommended ‘unsafe and incorrect’cancer treatments, internal documents show. » Stat News https://www. statnews. com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments(2018).
  7. Birhane, Abeba, and Fred Cummins. « Algorithmic Injustices: Towards a Relational Ethics. » arXiv preprint arXiv:1912.07376(2019).
  8. https://developers.google.com/machine-learning/fairness-overview
  9. https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html
  10. https://venturebeat.com/2020/05/20/a-fight-for-the-soul-of-machine-learning/
  11. https://openai.com/blog/microsoft/
  12. https://github.com/IlyeumInsights/ana

Pour Aller Plus Loin

 

 

 

La fusion des tendances technologiques : VO / IoT
16-Jan

La fusion des tendances technologiques : VO / IoT

L’information transférée par les capteurs IoT est souvent traitée dans des serveurs dédiés, ce qui a amplement écartée l’utilisation des caméras, comme objets connectés. Compte tenu de l’importance des données visuelles, comment intégrer la VO dans une solution IoT ? Qu’en est-il des coûts de la bande passante et des caméras par rapport à leurs valeurs ajoutées ?

l’IoT au quotidien

Apparu la première fois aux USA en 1999, Internet des Objets ou IoT est un terme qui servait à désigner un système capable de créer et transmettre des données à travers des capteurs connectés à Internet. Au fil du temps, ce terme a évolué et il englobe, à présent, tout l’écosystème des objets connectés, ce qui peut être considéré comme un éclectisme. Dans l’IoT, les objets sont connectés par des réseaux afin d’alimenter des applications d’exploitations, accessibles via des appareils mobiles. L’explosion du nombre de smartphones et de connexions a créé un marché nouveau aux opportunités quasi-infinies.  En 2010, plusieurs rapports désignent ce marché comme l’une des principales sources de croissance. En 2016, 5,5 millions d’objets sont connectés chaque jour dans le monde et des études prévoient que 26 milliards d’objets seront installés en 2020. Selon le cabinet américain BCC Research, le marché mondial des capteurs IoT représentait 10,5 milliards de dollars en 2017 et il pourrait atteindre 48 milliards de dollars d’ici 2023. Il s’agit là clairement de la naissance de toute une nouvelle industrie de fabrication de capteurs.

La VO au service de tous

La vision par ordinateur (VO) est, de nos jours, omniprésente dans les produits de consommation courante, mais elle a également une longue histoire d’utilisation dans les applications commerciales, gouvernementales ou encore militaires, nécessitant des caméras très performantes. Ces dernières ont été, pendant longtemps, séparées des infrastructures IoT, en raison de leur coût vis-à-vis des exigences temps-réel et haute résolution. Les données visuelles nous offrent des informations précieuses au quotidien, tel que reconnaître des personnes ou détecter des obstacles. Compte tenu de l’importance de la vue, il était naturel d’étendre ses capacités aux ordinateurs, aux systèmes d’automatisation ainsi qu’aux infrastructures IoT. Cela dit, la bande passante, réduite par rapport au volume de données visuelles à transmettre, représente le frein principal de l’intégration de ces capteurs aux solutions IoT.

La VO au service de l’IoT

Parmi les domaines d’applications qui nécessitent l’utilisation de caméras, embarquées, intelligentes et connectées, pouvant traiter des données en temps réel, est la vision industrielle. Cette dernière, basée sur des machines de vision pilotées par des programmes VO, représente l’un des plus gros chantiers de la fusion VO/IoT. Il n’est pas surprenant de voir la vision industrielle vite se démocratiser avec l’émergence de nouvelles entités de fabrication de caméras performantes à faible coût tel que la SC51 Smart camera de Datalogic Automation ou encore la caméra Cheker 3G de Cognex. Ces systèmes de vision industrielle (SVI) ne cessent de gagner en simplicité, ergonomie et accessibilité. Actuellement, il n’est plus difficile d’intégrer au SVI des programmes performants pouvant tourner en temps réel.

La prolifération croissante de la vision industrielle converge avec la tendance à relier les systèmes industriels à l’IoT. Alors que les capteurs deviennent de plus en plus intelligents, lorsque ces derniers sont pilotés par des algorithmes de VO, les données produites offrent des informations précieuses sur le fonctionnement des systèmes industriels. Cela mène à de nouveaux moyens de contrôler les équipements, avec des systèmes robotiques autonomes tels que les machines de vision ou encore des drones connectés à l’infrastructure IoT. Une telle solution permet, à son tour, un fonctionnement plus efficace qui nécessite beaucoup moins d’entrées externes. Identifier des objets via des caméras permet au nœud local d’être plus intelligent et d’avoir une plus grande autonomie, réduisant ainsi la charge de traitement sur les serveurs centraux et permettant une architecture de contrôle plus distribuée.

Cette fusion est aussi d’une très grande utilité pour la sécurité au sein des Smart Cities sur base de l’analyse de données provenant des caméras de vidéosurveillance. Pour le développement urbain des villes, il est devenu possible d’optimiser la gestion et la mise à disposition des ressources de la ville afin d’accroître la qualité et la performance des services envers les citoyens. Selon Multitel, plusieurs projets consistent notamment à améliorer la mobilité par une gestion quantitative et automatisée de l’occupation des ressources tel que les parkings, les voiries ou encore les places publiques.

Des entreprises comme IBM, Intel et Google entrent rapidement dans la « transition connectée », qui suppose de profondes transformations des méthodes de production et de management. Au-delà des opportunités offertes et de la transformation radicale de nos vies qu’entraîne la démocratisation de l’IoT, cette dernière se conjugue également à une réorientation de la chaîne de production de l’envergure de celle séparant taylorisme et toyotisme. Cela dit, les grandes firmes du Web visent non seulement à vendre des objets connectés mais aussi des services liés à ceux-ci, attirées par les prévisions de revenus qui pourraient excéder les 300 milliards de dollars grâce aux services en 2020.

De leurs coté, Amazon a lancé aux USA le projet « Amazon Go », qui consiste, à travers des caméras connectées entre elles, à détecter les produits achetés par le client et d’en déduire la somme à payer directement depuis son compte bancaire. Un tel projet de magasin sans caisse fait aussi l’objet de recherche chez Carrefour France.

La fusion des tendances vers un monde meilleur

L’association VO/IoT nous permettrai de voir un monde fascinant, hors de portée du spectre visible de notre globe oculaire. Le mouvement des particules, invisibles mais réelles, peut être modélisé à travers des capteurs et ainsi projetés par un système de vision. L’affichage de flèches directives pour indiquer l’itinéraire ou le calcul de la distance de sécurité en temps réel, sont des exemples d’utilisation actuelle qui dirigent notre imagination vers des applications encore plus révolutionnaires. Modéliser l’odeur et la transformer en couleur qu’on pourrait visualiser sur téléphone, sur casque VR ou encore à travers des hologrammes, fait aussi parti de ces idées qui seront développées dans un moyen terme.

La vue est le plus développé des cinq sens humains, mais n’est malheureusement pas à disposition de tous. Grâce à une fusion VO/IoT, il est possible d’imaginer un système permettant d’assister les personnes démunies. Un simple accessoire (e.g. casque micro) équipé d’une caméra pouvant exécuter des programmes VO complexes, serait d’une très grande utilité pour les personnes malvoyantes.

Et si tout ceci prenait beaucoup plus d’ampleur jusqu’à devenir à échelle humaine. Donnant suite au projet Neuralink, le nouveau Elon Musk aurait surement l’ambition de créer l’internet des humains, dans une infrastructure spécifique, où les humains seront connectés entre eux à travers des implants.


Références

  1. https://strategyofthings.io/iot-computer-vision
  2. https://www.multitel.be/expertises/vision-par-ordinateur/videosurveillance/
  3. automation.datalogic.com
  4. cognex.com
  5. https://fr.wikipedia.org/wiki/Internet_des_objets

Les Évolutions de l’IA
01-Jan

Les Évolutions de l’IA

Grâce à son fer de lance qu’est le Deep Learning (DL), l’Intelligence Artificielle (IA) est aujourd’hui incontournable. L’IA est en fait un domaine ancien aux multiples facettes, qui vont bien au-delà du DL, tant par le passé… que dans le futur. 

« L’IA est un domaine vaste, fractionné et ancien »

Que ce soit pour effectuer des diagnostics de santé [7] ou battre des joueurs professionnels à leur propre jeu [8,9], il n’est pas un jour sans que l’IA ne fasse parler d’elle. Les récents progrès autour du DeepLearning (DL) ont ouvert des possibilités abyssales et ont rendu la notion d’IA omniprésente dans les esprits. Mais cette dernière ne se résume pas au Machine Learning (ML) et Deep Learning (DL) : l’IA esten effet un domaine vaste, fractionné et ancien, qui peut prendre différentes formes, chacune avec ses forces et ses faiblesses.

« De nombreux sous-domaines de l’IA ont émergé […] et se sont fortement spécialisés »

Même si le concept d’IA est vieux de plusieurs siècles, les premiers travaux majeurs remontent aux années 1950 et à l’apparition des ordinateurs. L’IA va alors progresser à grand pas, dans différentes directions, et connaître des résultats stupéfiants, mais aussi des périodes de blocages, à savoir les« hivers de l’IA »1. Du fait de la variété des problématiques abordées et des méthodes utilisées, de nombreux sous-domaines de l’IA ont émergé au cours de ces décennies et se sont fortement spécialisés,parfois au point de ne plus échanger entre eux. Parmi les principaux domaines, nous pouvons citer les IA symboliques, les IA statistiques et probabilistes, et les IA connexionnistes (et ML), que nous allons aborder à présent.

« L’IA symbolique, bien qu’ancienne […], a permis d’atteindre des résultats importants, ce qui lui a valu le surnom de « Good Old-Fashioned Artificial Intelligence »

Une des premières formes d’IA n’est autre que l’IA symbolique. Celle-ci, bien qu’ancienne, a été prédominante et a permis d’atteindre des résultats importants (en particulier au travers des systèmes experts), ce qui lui a valu le surnom de GOFAI (pour « Good Old-Fashioned Artificial Intelligence ») [4]. L’IA symbolique cherche à répondre à divers problèmes et repose sur l’utilisation de symboles (propositions) et des relations entre ces derniers. Ces symboles et liens modélisent l’environnement et sont analysés au travers de formules logiques, de la logique floue, de raisonneurs ou de règles de production. Par ce biais, les GOFAI sont parvenues à faire leurs preuves dans des applications de planification, recherche d’information et diagnostic automatique. Les IA symboliques reposent souvent sur une base de connaissance riche connue a priori, et donc fournie par un expert humain. Cette caractéristique est à la fois la force et la faiblesse des GOFAI : même si elles sont facilement explicables aux utilisateurs, elles demandent un important effort de préparation et sont dépendantes de l’humain.

« S’appuyant sur des principes mathématiques éprouvés, les IA probabilistes s’adaptent au contexte […] et permettent de faire face aux problèmes d’incertitudes. »

Les approches statistiques et probabilistes ont rapidement émergé afin de pallier le manque de flexibilité des GOFAI face aux problèmes des applications concrètes. S’appuyant sur des principes mathématiques éprouvés, tels que les modèles de Markov ou les Réseaux Bayésien, ces IA s’adaptent au contexte selon des « observations » et permettent de faire face aux problèmes d’incertitudes des données. Ainsi, ces IAont été appliquées dans des applications concrètes et incertaines, comme en robotique domestique [11]ou pour l’aide à la décision [10]. Ces approches statistiques sont néanmoins limitées par leurs modèles et manquent d’explicabilité aux humains.

« Le Machine Learning fonctionne en « boîte noire » et sont difficilement explicables pour l’utilisateur. »

Enfin, avec l’explosion de la puissance de calcul et des volumes de données, le ML et les IA connexionnistes (réseaux de neurones, ou DL) connaissent un renouveau. En effet, même si les concepts du ML et DL ont été développés en parallèle des approches symboliques et statistiques, les résultats atteints à l’époque se sont montrés limités. À présent éprouvés, ML et DL parviennent à répondre à des problèmes concrets et spécifiques, comme le data mining, la vision par ordinateur [12] ou encore la traduction de textes2. Ces derniers s’appuient sur différents modèles qui sont entrainés à partir de jeux de données d’exemple, limitant drastiquement l’intervention humaine dans leur mise en place. De par les volumes considérables de données disponibles, des résultats impressionnants ont été atteints. Cependant, à l’opposé des autres approches, le ML et DL fonctionnent en « boîte noire » et sont difficilement explicables pour l’utilisateur. De plus, ils reposent sur des volumes de données importants, qui ne sont pas toujours disponibles. Une dernière limite est la sensibilité de ces approches à la qualité de la donnée : si le jeu de données d’exemple est incomplet, imprécis ou mal formé, l’IA ne sera ni fiable, ni adaptée aux besoins attendus.

« Les Intelligences Artificielles Générales visent à pouvoir comprendre et répondre à n’importe quel problème. »

Même si aujourd’hui l’IA se résume le plus souvent au DL, elle peut reposer sur différentes approches qui s’avèrent être assez complémentaires. À ce titre, même si les sous-domaines restent très cloisonnésentre eux, de plus en plus de travaux explorent des solutions combinées ou hybrides [3,6] qui s’appuientsur les forces de chaque approche tout en comblant leurs lacunes. Par exemple, une approche symbolique combinée à du DL peut avoir une forte explicabilité, malgré une faible intervention humaine a priori, ce qui est idéal dans un contexte robotique. De manière plus globale, ces travaux récents contribuent à s’approcher vers un nouveau type d’IA : les Intelligences Artificielles Générales (AGI). Là où les approches actuelles se cantonnent à un domaine ou une application bien spécifique (au point de nécessiter des outils de généralisation particuliers3 [5]), les AGI visent à pouvoir comprendre et répondre à n’importe quel problème. Ces IA pourront se baser sur leurs expériences précédentes et leur connaissance pour identifier la sémantique du problème et pour proposer (et justifier !) une solution, un peu comme un humain le ferait. Les verrous restent nombreux et la technologie d’IA actuelle ne permet pas d’atteindre les AGI. Certains chercheurs indiquent tout de même que la probabilité que les AGI émergent dans le siècle courant est supérieur à 50% [1,2] : l’Histoire de l’IA est en train de s’écrire.


Références

  1. https://www.theverge.com/2018/11/27/18114362/ai-artificial-general-intelligence-when-achieved-martin-ford-book
  2. Ford, Martin. Architects of Intelligence: The truth about AI from the people building it. PacktPublishing Ltd, 2018.
  3. Garnelo, Marta, and Murray Shanahan. « Reconciling deep learning with symbolic artificial intelligence: representing objects and relations. » Current Opinion in Behavioral Sciences 29 (2019): 17-23.
  4. Haugeland, John. Artificial intelligence: The very idea. MIT press, 1989.
  5. Cobbe et al. “Leveraging Procedural Generation to Benchmark Reinforcement Learning”, 2019
  6. Sfar, Hela, et al. « AGACY monitoring: a hybrid model for activity recognition and uncertainty handling. » European Semantic Web Conference. Springer, Cham, 2017.
  7. https://www.forbes.com/sites/nicolemartin1/2019/09/30/artificial-intelligence-is-being-used-to-diagnose-disease-and-design-new-drugs/#692866b044db
  8. https://deepmind.com/blog/article/AlphaStar-Grandmaster-level-in-StarCraft-II-using-multi-agent-reinforcement-learning
  9. https://www.numerama.com/tech/575685-lia-ne-peut-etre-vaincue-le-champion-de-go-qui-avait-affronte-alphago-arrete-sa-carriere.html
  10. Laskey, K. B. (2008). MEBN: A language for first-order Bayesian knowledge bases. Artificial intelligence, 172(2-3), 140-178.
  11. Ramoly, N. (2018). Contextual integration of heterogeneous data in an open and opportunistic smart environment: application to humanoid robots.
  12. Voulodimos, A., Doulamis, N., Doulamis, A., & Protopapadakis, E. (2018). Deep learning for computer vision: A brief review. Computational intelligence and neuroscience, 2018.

Pour Aller Plus Loin

L’IA, un vrai boost pour la Vision par Ordinateur
03-Jun

L’IA, un vrai boost pour la Vision par Ordinateur

La vision par ordinateur (VO) est une branche pluridisciplinaire liée aux mathématiques et à l’intelligence artificielle (IA). La VO traite de la façon dont les ordinateurs peuvent acquérir une compréhension du monde qui les entoure à partir d’images ou vidéos numériques. Son objectif principal est de permettre à une machine au travers d’algorithmes et modélisations, d’interpréter un contenu visuel tel un humain. Cependant, la VO pourra-t-elle répliquer avec succès les capacités humaines, voire les dépasser ? Les progrès de l’IA permettront-ils à la VO d’automatiser et rendre ainsi obsolètes certains métiers ?

La vision par ordinateur est un ensemble de technologies qui permet à une machine de voir et surtout de comprendre ce qu’elle voit et d’en tirer des conclusions. Les outils et méthodes mis en œuvre peuvent être matériels et logiciels. Lors de l’acquisition, le principe est d’imiter la vision humaine ou animale en fabriquant des dispositifs complexes pouvant avoir une vision à larges champs (i.e. comme pour certains oiseaux) ou encore une vision nocturne (e.g. infra-rouge, ultraviolet, rayon x, etc.), dépassant ainsi les longueurs d’onde que l’œil humain perçoit. Parfois, l’image est acquise par des capteurs spéciaux adaptés à des milieux extrêmes tel que l’intérieur d’installations nucléaires. Cela dit, outre la perception visuelle, la VO vise à automatiser et intégrer une vaste gamme de processus afin de permettre une meilleure analyse et compréhension de la scène perçue.

Par ailleurs, pourquoi donner des yeux à une application ? En quoi un ordinateur qui « voit » pourrait-il bien être utile ? Et quels sont les domaines d’application de la vision ?

Les domaines d’application de la vision sont très vastes, que ce soit en imagerie ou pour le traitement de vidéo. En tant que discipline scientifique, la vision traite la reconnaissance de formes, de visages ou de personnes, la détection de zones d’intérêts et de points caractéristiques dans une scène. Par la suite, dans l’industrie, ces travaux de recherches mènent à différents cas d’usage et peuvent s’appliquer à la sécurité, biométrie, sport (Foxtenn et Hawk-eye) ou encore à l’imagerie médicale, qui représente l’une des plus grandes promesses de la VO. Un radiologue assisté par un logiciel de détection d’anomalies ou de tumeur permet un gain de temps pour le radiologue et un gain en sécurité pour le patient. En traitement vidéo, on retrouve les méthodes de suivi d’objets, de cibles ou de personnes ainsi que les techniques de reconstruction d’objets ou de scènes 3D.

Néanmoins, malgré la variété des applications qui entrent dans la VO, identifier des formes ou suivre une cible dans une vidéo n’est plus suffisant de nos jours. La complexité mathématique à concevoir des algorithmes plus utiles a longtemps freiné la progression des techniques de vision. Ainsi, certaines applications comme la reconnaissance d’émotions ou d’événements ont pendant longtemps été des verrous pour la VO. Aujourd’hui, la vision fait face à d’importantes problématiques d’interprétation de scènes complexes en vidéo ; comme la détection d’activités, la reconnaissance de sentiments, la suggestion d’actions ou encore l’émission d’alertes en cas de danger.

Alors qu’elle est restée sans évolution conséquente avant les années 2000, comment la vision a-t-elle pu franchir ce cap ?

Le domaine d’intelligence artificielle (IA) et plus particulièrement les techniques de Machine Learning (ML) et Deep Learning (DL), ont permis aux ordinateurs d’effectuer plusieurs traitements, longtemps considérés comme impossible. Le ML progresse d’une façon impressionnante et son impact sur l’industrie est indéniable. Il faut reconnaitre que les techniques du ML ont été déterminantes pour lever plusieurs verrous scientifiques sur des sujets qui étaient jusqu’à présents inaccessibles, et la VO en fait partie bien évidemment. En effet, cette dernière connait un développement spectaculaire, grâce aux avancées matérielles et au souffle donné par le ML, apportant à son tour (i.e. VO) une forte valeur ajoutée à multiple domaines d’applications de plus haut niveau tels que la biométrie, la médecine, la sécurité, la surveillance, etc. Un algorithme conçu pour identifier des voitures et des personnes comme des objets distincts est maintenant capable grâce à l’IA, de prédire ce que ces objets seraient susceptibles de faire l’instant suivant. Cela nécessite, bien évidemment, l’analyse des interactions entre les objets et le développement de modèles statistiques décrivant ces interactions.

Avec ce boost donné par les techniques de ML, la vision se voit-elle dépasser l’humain ?

Aujourd’hui, grâce à la vision, un robot (ou drone) peut voir, analyser, éviter des obstacles, comprendre, apprendre et même expliquer. Une fois tout ceci acquis, le robot peut effectuer différentes tâches très utiles que l’humain ne peut ou ne veut réaliser. Outre les corvées quotidiennes, un robot peut reconnaitre visuellement la personne qui sonne à votre porte et exécuter d’autres tâches ultérieures, tel qu’un humain pourrait le faire. Cowa-Robot est un robot valise qui, grâce à une caméra, peut vous suivre partout en évitant les obstacles. Un autre prototype similaire permet une forte assistance aux personnes démunies, particulièrement les malvoyants. Les véhicules autonomes font aussi partie de ces avancées technologiques qui suscitent à la fois de l’émerveillement et de la crainte. Ils ouvrent la voie à d’importantes questions juridiques et éthiques. Les voitures intelligentes et autonomes peuvent, en étant connectées, communiquer entre elles et circuler seules en toute sécurité. Par exemple, un carrefour pourrait alors être dirigé par une machine connectée aux autres véhicules : cette dernière, équipée d’une ou plusieurs caméras embarquées, compterait le nombre de véhicules provenant de chaque voie et adapterait le comportement des véhicules afin d’optimiser au mieux la circulation.

D’un point de vue scientifique, la vision cherche à automatiser des tâches que le système visuel humain peut effectuer, partant de l’acquisition à la compréhension et l’analyse. En tant que discipline technologique, la vision fait plutôt référence à une combinaison de techniques d’analyse d’image et de mise en correspondance afin d’inspecter des objets ou des lieux, de façon automatique. L’évolution rapide des techniques d’IA a permis à cette branche pluridisciplinaire de donner un élan sans précédent à plusieurs domaines applicatifs de plus haut niveau telles la robotique et les voitures intelligentes. La possibilité de combiner la vidéo HD, le traitement d’images, l’analyse et la connectivité est devenue une fonctionnalité essentielle pour la création d’applications intelligentes de nouvelle génération. Dans l’industrie, les projets innovants nécessitent une maitrise des techniques de VO et de ML afin de développer des applications qui répondent aux besoins d’aujourd’hui.

Cela dit, quel que soit l’avancement futur que connaîtront la vision et l’intelligence artificielle, une machine n’égalera jamais la perception et la réflexion d’un humain. Enfin, n’est-ce pas Albert Einstein qui disait que « Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune d’entre elles ne pourra en poser un »

 

INFO + :

Le Lab Inno ILYEUM travaille sur une application d’assistance technique des personnes dans différents domaines comme le bricolage, la maintenance et l’assemblage, basée sur la vision par ordinateur et le Machine Learning.  Vous êtes intéressez par la VO et les projets du Lab Inno d’ILYEUM ? Contactez-nous :  labinno@ilyeum.com

 

Pour aller plus loin :

 

Liens

https://vision.i2s.fr/fr/57-objectif-vision-360

https://www.scriptol.fr/robotique/vision.php

https://www.youtube.com/watch?v=_qah8oIzCwk

https://interstices.info/histoire-du-traitement-dimages/

https://www.scriptol.fr/robotique/robots-humanoides.php

https://machinelearningmastery.com/what-is-computer-vision/

https://machinelearningmastery.com/applications-of-deep-learning-for-computer-vision/

 

Références:

  • Kavitha, D. N. Chandrappa, « Comparative Review on Video Based Vehicular Traffic Data Collection for Intelligent Transport System« , International Conference on Recent Advances in Electronics and Communication Technology (ICRAECT) 2017, pp. 260-264, 2017.
  • Shanghang Zhang, Guanhang Wu, Joao P. Costeira, Jose M. F. Moura, “FCN-rLSTM : Deep Spatio-Temporal Neural Networks for Vehicle Counting in City Cameras” The IEEE International Conference on Computer Vision (ICCV), pp. 3667-3676, 2017.
  • Rajalingappaa Shanmugamani “Deep Learning for Computer Vision: Expert techniques to train advanced neural networks using TensorFlow and Keras” Packt Publishing, January 23, 2018.
  • Roland Siegwart, Illah Reza Nourbakhsh, Davide Scaramuzza, “Introduction to Autonomous Mobile Robots” The MIT Press; 2nd Edition, Kindle Edition, February 18, 2011.
  • Richard Szelisk “Computer Vision: Algorithms and Applications” Springer; 2011 edition (November 24, 2010).

 

Automatiser l’Automatisation !
08-May

Automatiser l’Automatisation !

Véritable vitrine de l’IA, le Machine Learning (ML) a changé notre vision de la donnée et de son traitement, si bien que de nouvelles professions ont émergé pour répondre aux opportunités nouvelles et vastes. Néanmoins, le ML n’est-il pas (déjà) lui-même sujet à une révolution ? C’est la question qui se pose face à l’émergence récente de l’Automatic Machine Learning (AutoML), ou apprentissage automatique… automatique !

Alors qu’il est longtemps resté dans l’ombre des systèmes experts, le Machine Learning (ML) connait un formidable essor depuis une quinzaine d’années grâce aux avancées matérielles et à l’explosion des données. Aujourd’hui omniprésent, les récents progrès et son impact sur la société sont indéniables, comme souligné par le dernier prix Turing qui a récompensé des pionniers du ML. Il faut dire que le ML ouvre des possibilités qui étaient jusqu’à présent verrouillées. Comme son nom le suggère, le ML permet aux ordinateurs d’apprendre par eux-mêmes à réaliser une tâche à partir de données. Rien que ça !
En effet, au cœur des solutions de ML se trouve la phase d’apprentissage où La machine va s’entrainer à partir d’un jeu de données (dataset) à déterminer une sorte de fonction de transfert logique qui va traduire les différentes corrélations entre les données. Le dataset peut être annoté dans ce cas on parle d’apprentissage supervisé ; ou non supervisé dans ce cas on parle d’apprentissage non supervisé. Aujourd’hui, plus qu’une discipline, le ML constitue un domaine à part entière et regroupe un vaste ensemble d’outils et de méthodes. Il existe dans ce sens, différents algorithmes d’apprentissage, parmi lesquels se trouvent les réseaux de neurones (qui peuvent être profonds, on parle alors de Deep Learning), machines à vecteur de support (SVM) ou encore les forêts aléatoires.

le ML est appliqué et s’est illustré dans de nombreux domaines allant de la vision par ordinateur au business intelligence en passant par la recommandation de contenus 

Une fois l’apprentissage achevé, le modèle entrainé peut être utilisé pour effectuer la tâche sur des données de production. Les données d’exemple sont clefs pour le ML, mais ce dernier peut tirer avantage des larges quantités de données entreposées par les applications au cours de ces dernières années. Ainsi, les possibilités sont grandes, le ML permet de valoriser les données pour créer des systèmes intelligents, de mieux comprendre les données et leur relations (en particulier avec les approches non supervisées), de prédire des tendances, mais aussi de créer des œuvres de toutes pièces. A ce titre, le ML est appliqué et s’est illustré dans de nombreux domaines allant de la vision par ordinateur au business intelligence en passant par la recommandation de contenus.

Néanmoins derrière ce formidable potentiel, qui peut paraitre utopique, se trouve une expertise. En effet, il ne s’agit pas là de magie : préparer un modèle d’apprentissage est tout un art. Il convient de bien sélectionner les données, de correctement les préparer, de sélectionner un algorithme adéquat et de régler avec précision les hyperparamètres. C’est une tâche qui est loin d’être aisée, qui demande temps, expérience et intuition ; d’où l’apparition du domaine qu’est la data science. Pour répondre aux besoins grandissants, de plus en plus d’entreprises font appel à des data scientists, si bien que des départements entiers de data science se forment. En bref, le ML est très populaire, mais sa mise en place demande une expertise particulière.

La contrepartie principale de l’AutoML n’est autre que son besoin en ressources, temporelles comme matérielles

Toutefois, si le ML se popularise à grande vitesse, les choses pourraient changer tout aussi rapidement. Comme nous l’avons dit, mettre en place une solution de ML n’est pas évident, or, si par le ML les machines peuvent apprendre à faire certaines tâches, pourquoi ne pas les laisser faire cette mise en place par elle-même ?

C’est la tendance que nous observons actuellement avec l’émergence de l’Automatic Machine Learning (AutoML). Le principe est donc simple : automatiser la mise en place de solution de ML et rendre trivial son utilisation. Inutile de dire que cela peut apparaitre comme une solution miracle. C’est pour cela que plusieurs acteurs majeurs proposent des solutions en ce sens, parmi lesquels Google, Microsoft, H2O ou encore Dataiku. On dénote également un bon nombre de solutions open-source, comme TPOT, MLBox, auto-sklearn, Auto-WEKA ou Auto-Keras, pour n’en citer que quelques-unes. La simplicité d’utilisation de l’AutoML est déconcertante : créer un modèle ne prend que quelques lignes de code, voir quelques clics seulement sur une interface dédiée, sans voire une ligne de code. Les techniques AutoML vont évaluer et tester différentes configurations, algorithmes, paramétrages et optimisations de manière intelligente en s’appuyant sur des techniques de pointe comme l’optimisation Bayésienne, l’apprentissage par renforcement ou la programmation génétique. Chaque approche a ainsi ses caractéristiques et ses spécialités ; certaines abordent exclusivement le paramétrage de réseaux de neurones, quand d’autres fournissent un pipeline complet avec des algorithmes classiques de ML par exemple. La contrepartie principale de l’AutoML n’est autre que son besoin en ressources, temporelles comme matérielles. L’AutoML est en effet demandeur en puissance de calculs et/ou en temps (parfois plusieurs jours) pour préparer un modèle. Cependant, l’émergence des solutions Cloud à la demande, qui offrent un accès a de forte puissance de calcul selon le besoin, permet de pallier ce problème, moyennant finance. Mais à ce prix, le ML devient accessible à tous.

Va-t-on donc (déjà) vers la fin de la data science ?

Pour l’heure, non. Aussi performantes soient les méthodes d’AutoML, elles ne couvrent pas la totalité des challenges et besoins des data scientists. A commencer par la connaissance du métier, qui est clef dans la mise en place du ML, en particulier dans le choix de données et le rôle des modèles. Cette connaissance experte est nécessaire pour orienter et paramétrer correctement le ML en fonction du besoin, or, l’AutoML ne peut prendre en compte cette connaissance assez abstraite par lui-même. Une autre limite d’AutoML est sa faiblesse dans certains types de ML ; alors qu’il excelle dans la classification et la régression supervisée, les apprentissages non supervisés et/ou par renforcement sont plus délicats à automatiser. Enfin, certains types de données, en particulier complexes, sont particulièrement difficiles à considérer automatiquement et requièrent une forte expertise et préparation en amont. Ainsi, le rôle des data scientists reste essentiel dans de nombreux cas. De fait, l’AutoML est plutôt un outil complémentaire, c’est d’ailleurs ce qui est avancé par TPOT qui se présente comme l’assistant du data scientist. De plus, l’AutoML reste un formidable effort de démocratisation et est utilisable par tous les profils. Il est en effet parfaitement adapté pour essayer ou évaluer le ML, au travers de preuves de concept, et ce sans expertise. Mais la mise en place de la solution en production nécessitera toujours l’expertise de data scientists.
L’AutoML ne va pas remplacer la data science, mais va l’enrichir. Son accessibilité lui permet de faciliter et d’accélérer la mise en place de solution de ML. Le ML, et plus généralement l’IA, progresse déjà (très) rapidement, et l’AutoML ne va qu’accentuer cette émergence. C’est une technologie prometteuse qui a encore du chemin devant elle ; et il convient de la surveiller, car nul doute qu’elle sera au cœur de la démocratisation de l’IA dans l’ensemble de la société.

L’équipe du Lab Inno d’ILYEUM


Dans le cadre d’un de ses projets de R&D autour de la supervision intelligente, le Lab ILYEUM a expérimenté pléthore de solutions et de concepts d’auto ML depuis la phase de prétraitement du jeu de données au choix de l’algorithme d’apprentissage et de ses hyper paramètres.
Contactez-nous pour en savoir plus :
labinno@ilyeum.com


Références

  1. Olson, Randal S., et al. « Evaluation of a tree-based pipeline optimization tool for automating data science. » Proceedings of the Genetic and Evolutionary Computation Conference 2016. ACM, 2016.
  2. Olson, Randal S., et al. « A system for accessible artificial intelligence. » Genetic Programming Theory and Practice XV. Springer, Cham, 2018. 121-134.
  3. Kotthoff, Lars, et al. « Auto-WEKA 2.0: Automatic model selection and hyperparameter optimization in WEKA. » The Journal of Machine Learning Research 18.1 (2017): 826-830.
  4. Vasile, Mihaela-Andreea, et al. « MLBox: Machine learning box for asymptotic scheduling. » Information Sciences 433 (2018): 401-416.
  5. Feurer, Matthias, et al. « Efficient and robust automated machine learning. » Advances in neural information processing systems. 2015.

Ilyeum s’empare de la pollution digitale
09-Nov

Ilyeum s’empare de la pollution digitale

Dans le cadre d’une soirée afterwork qui a été organisée le 8 novembre. Une soirée qui mêle convivialité et rencontre avec la présence d’un invité sous le nom des “inspirants d’Ilyeum”. Anthony Alfont était notre premier invité de la série. Il est le Chief Operating Officer de DIGITAL FOR THE PLANET la première initiative globale pour l’écologie digitale. Ce soir-là, les consultants et salariés d’Ilyeum ont répondu présent, et en nombre.

« chaque appareil fait parfois quatre fois le tour du monde avant d’arriver en boutique »

La pollution digitale est un enjeu majeur pour le devenir de la planète puisqu’elle représente 16% de la consommation électrique mondiale. Et ce ne sont que les prémisses de ce phénomène puisque ce chiffre aura augmenté de 50% en 2020 ! Ilyeum est convaincu de pouvoir agir à son niveau. L’entreprise de service numérique s’engage donc dans cette prise de conscience. Et il y a fort à faire. Le 8 novembre, dans les locaux d’Ilyeum, Anthony Alfont a commencé par rappeler les conditions dramatiques dans lesquelles les matériaux rares, qui composent les ordinateurs ou autres téléphones, sont, la plupart du temps, extraits. Qui plus est, « chaque appareil fait parfois quatre fois le tour du monde avant d’arriver en boutique », souligne le Chief Operating Officer de Digital For The Planet.

« De l’or dans les portables »

Les usages sont le deuxième facteur de pollution numérique. Il y a ce chiffre, méconnu mais très parlant : le bilan carbone d’un mail envoyé avec pièce jointe s’élève à 18 grammes de CO2. L’équivalent d’une ampoule allumée pendant 24 heures ! « Comment limiter cette pollution tout en sachant que les mails sont indispensables dans notre métier ? », s’interroge Morgane dans une question adressée par… mail justement. Pour Anthony Alfont, ce sont des problématiques que les entreprises ont tout intérêt à se poser dès maintenant, pour anticiper ce qui s’imposera à elles, tôt ou tard. Le Chief Operating Officer de Digital For The Planet a ensuite évoqué le recyclage : « à l’heure actuelle, on ne sait pas recycler un Iphone », rappelle-t’il, « ce n’est pas encore rentable, alors on le jète, puis on le brûle ». Pourtant, dans un téléphone portable, il y a des matérieux précieux dont le recyclage pourrait paraître évident : il y a de l’or notamment. Un autre chiffre évocateur : 100 millions de portables « dorment dans les tiroirs des Français ».

« Image de marque »

« Mais comment convaincre les entreprises de l’importance de la lutte contre la pollution digitale ? » s’interroge Marwen. Pour Anthony Alfont, la réponse est en partie politique. Digital For The Planet a l’intention de travailler avec le gouvernement « pour porter le sujet auprès des Français, puis les entreprises suivront la demande des consommateurs ». L’entreprise devrait y trouver son compte, si l’on induit l’image de marque ainsi que les économies d’électricité engendrées. Et Anthony Alfont de souligner que les développeurs sont précisément au cœur de toute cette problématique. Dans la formation qu’ils ont suivie, le bilan carbone fait souvent l’objet d’un enseignement. Mais pas toujours. Cela n’a pas été le cas pour Anouar, par exemple. L’écologie digitale est un enjeu plus qu’urgent pour ces dix prochaines années, en France et dans le monde. Il y a fort à parier que Ilyeum et Digital For The Planet se recroiseront sur cette longue route.

 

Mohammed Chouiter : « L’innovation, c’est notre ADN »
06-Dec

Mohammed Chouiter : « L’innovation, c’est notre ADN »

Les entreprises françaises s’engagent, parfois tête baissée, dans la course à l’innovation numérique. Ce n’est pourtant pas un sprint mais bien une course de fond qui s’engage. Le numérique représente aujourd’hui 5,5 % du PIB français, et sa part pourrait doubler dans les prochaines années. Il s’agit donc d’un moteur stratégique pour l’entreprise. Mohammed Chouiter, CEO de Ilyeum, l’a bien compris. Et ce, depuis le début. D’ailleurs, aujourd’hui, son entreprise confirme son avancée et lance son propre laboratoire d’innovation : le Lab Inno. Interview.

Pourquoi avoir lancé votre propre laboratoire d’innovation ?

Ilyeum est dans le numérique depuis sa création. La technologie, c’est notre métier. Être dans l’innovation, cela fait partie de notre ADN. Nous devons donc toujours être en veille. Pour tous nos clients, la technologie est un élément essentiel de leur existence. Selon la BPI, 3 entreprises françaises sur 5 sont passées au Big Data aujourd’hui. Ainsi, tous nos collaborateurs interviennent aussi bien sur les conseils purs que sur la réalisation de systèmes d’informations, d’applications, cela dans des technologies qui évoluent très rapidement. Jusqu’à présent, nous l’avons fait de manière artisanale : nous organisions des ateliers en interne pour pouvoir développer ces compétences. Au fur et à mesure, nous avons articulé cette compétence autour de projets. Désormais, nous avons décidé de créer notre Lab Inno pour structurer notre démarche.

Quels sont les enjeux pour votre entreprise ?

L’intelligence artificielle, le big data et la blockchain sont de vraies réalités pour les entreprises et donc un vrai sujet de recherche, pour nous. Et il est de notre devoir d’être présents dès aujourd’hui sur ces technologies. Comment rendre ces connaissances utilisables pour nos clients ? Il faut que nous puissions les transformer en valeur ajoutée pour eux et pour nous-mêmes d’ailleurs. C’est une nécessité pour Ilyeum. Nous ne pouvons pas nous permettre de rester sur les technologies que nous maîtrisons à ce jour. Demain, elles seront obsolètes.

« Nous envisageons, à ce titre, des partenariats avec plusieurs grandes universités françaises. »

Lorsque l’on voit les choses de cette manière, on se rend compte que notre démarche est vitale. Il nous faut avoir une longueur d’avance sur la concurrence, si ce n’est pas deux. Depuis quelques mois, nous sommes donc passés à l’action en matière de recrutement de docteurs, pour renforcer nos équipes en matière de recherche, autour de deux axes très complémentaires : l’intelligence artificielle et le traitement de langage naturel pour travailler sur toute la problématique liée aux assistants vocaux. Nous envisageons, à ce titre, des partenariats avec plusieurs grandes universités françaises.

Quels seront les objectifs de ce Lab Inno ?

Nous voulons, en priorité, aboutir au développement de solutions, de méthodologies ou d’algorithmes que nous pourrons packager pour qu’ils puissent servir à nos clients. Pour l’instant, nous nous concentrons sur les domaines de la banque, de la finance, des assurances, des medias ou encore de l’énergie. Ce sont nos principaux clients. Nous souhaitons également, et c’est aussi une priorité, accompagner au mieux nos clients en termes de besoin sur ces nouvelles technologies, et ce, parfois même, en terme de réflexion. Enfin, notre Lab Inno a pour objectif d’impliquer tous nos consultants afin de les former au mieux sur ces technologies.

« C’est un vrai projet d’entreprise fédérateur. »

Nous leur apporterons les connaissances, afin qu’ils puissent les transformer en compétences. Qui plus est, cela jouera en la faveur de la cohésion de notre entreprise. Le but est également de mettre des outils en place afin de pouvoir optimiser l’effort de chacun autour de l’innovation. En somme, notre Lab Inno aura vocation à devenir, à la fois, un vivier de compétences, afin de rendre notre entreprise plus agile, et un portail de partage de connaissances, accessible à tous nos collaborateurs, qui ne se trouvent pas toujours au même endroit, au même moment. C’est un vrai projet d’entreprise fédérateur.

Zoom sur les projets en cours, présentés par Baba Bamba, le responsable du Lab inno d’Ilyeum.

La pérennité du système est primordiale pour nos clients. C’est le cas par exemple des entreprises dans le monde de la finance. Une cessation de service peut amener à des situations problématiques. Pour y répondre : nous travaillons sur la notion de prévision via l’intelligence artificielle. C’est ce que l’on nomme la « maintenance prédictive ». Nous proposons à nos clients d’utiliser des outils d’automatisation, non pas pour remplacer les experts, mais pour permettre d’anticiper au mieux des situations qui, ainsi, pourraient être évitées.

Les assistants vocaux vont bientôt se substituer totalement aux interfaces visuelles, aux écrans. Selon les experts, la moitié des recherches sur Internet pourraient être vocales d’ici à 2020. A ce jour, les assistants vocaux permettent de lancer de la musique ou d’allumer la lumière. Désormais, on peut également faire ses courses par ce biais technologique. En 2022, le commerce vocal devrait peser 40 milliards de dollars dans le monde. Nous voulons anticiper ces besoins. Dès à présent, nous nous demandons comment concevoir le web et les applications de demain ? Nous sommes, sur ce projet, dans une phase de conceptualisation, en travaillant notamment autour de la blockchain.