Au cours de mon stage de fin de DUT au Pôle de compétitivité Systematic Paris-Region, en 2017, j’ai été amené à rédiger des fiches sur le nouveau site internet. Il s’agissait de présenter les technologies clés pour lesquelles le Pôle agit.

Le site ayant été refait dernièrement, voici les technologies clés vulgarisées ci-dessous.

Avec le développement des nouvelles technologies, notamment des objets connectés, la quantité de données produites ne cesse d’augmenter : e-mails, transactions bancaires, échanges sur les réseaux sociaux… Ce flot massif de données nécessite l’utilisation d’outils plus évolués que de simples logiciels de gestion de bases de données et marque ainsi une nouvelle ère dans le monde des données. L’utilisation de ces données massives nécessite des compétences en termes de mutualisation et d’analyse des données.

L’excellence française en matière de mathématiques, statistiques et sciences humaines constitue un atout important pour maîtriser les Big Data.

De nouveaux métiers ont vu le jour : les data scientists analysent les données dans leur globalité en croisant les sources et les data analysts se consacrent à un type de donnée précis. Leur rôle est de concevoir des algorithmes et de les rendre exploitables. L’excellence française en matière de mathématiques, statistiques et sciences humaines constitue un atout important pour maîtriser les Big Data. Au-delà du traitement et de l’analyse, les Big Data représentent un enjeu important en matière de protection et de stockage des données. En plein essor, le marché du Big Data devrait représenter 650 millions d’euros en 2018.

Reconnaissance vocale, voiture autonome, chatbot… Tous ces dispositifs ont pour point commun l’intelligence artificielle (IA). Une machine utilise l’IA lorsqu’elle effectue des tâches habituellement réalisées par l’humain telles que la compréhension, le raisonnement ou encore l’apprentissage. L’IA est devenue incontournable dans le domaine du numérique. En France, plus de 13 000 chercheurs consacrent leur travail sur des thématiques liées à l’IA.

Virus, ransomwares, fuites de données, les organisations font face à une cybermenace grandissante et variée. En 2015, 4 000 signalements d’attaques envers des entreprises françaises ont été reçus. 2 attaques sur 3 visent la défiguration de sites internet et 10% la compromission de systèmes d’informations.

A l’heure de la dématérialisation et de la dépendance croissante des entreprises envers les outils numériques, la confiance numérique implique l’usage d’outils connectés sécurisés entre l’utilisateur et la machine. Sous-estimée ou par manque de budget, la cybersécurité est donc devenue un enjeu majeur d’un point de vue industriel.

De nombreuses entreprises s’attèlent à développer des solutions.

Aujourd’hui le sujet de la cybersécurité est porté par de grands groupes capables d’influencer sur les standards et les normes, par les nombreuses PME innovantes du secteur et par l’Anssi (Autorité nationale en matière de sécurité et de défense des systèmes d’information). C’est pourquoi de nombreuses entreprises s’attèlent à développer des solutions en matière de technologies logicielles et d’architecture de grands systèmes complexes pour contrer les menaces et sécuriser les appareils connectés. 600 entreprises de la filière française de cybersécurité œuvrent afin d’installer cette relation de confiance.

Sous l’impulsion du plan cybersécurité de la Nouvelle France Industrielle (NFI) lancé début 2015 par le gouvernement, les enjeux du marché sont tournés vers quatre objectifs : accroître la demande en solutions, développer des offres de confiance pour les besoins de la France, organiser la conquête des marchés étrangers et renforcer les entreprises nationales du domaine cybersécurité. Aujourd’hui, le marché de la confiance numérique représente plus de 3 milliards d’euros.

Dès la création du Pôle de compétitivité Systematic Paris-Region, la sécurité a constitué une thématique prioritaire. Aujourd’hui, le pilotage et l’animation sont assurés par un Hub dédié, le Hub Cyber & Security (anciennement Groupe Thématique “Confiance Numérique, Sécurité & Défense”) qui porte une vision dans laquelle sont traités globalement les enjeux de sécurité, qu’il s’agisse de menaces physiques ou de menaces numériques. L’ancien Groupe Thématique est à l’origine de deux publications en lien avec la sécurité numérique, Cybersécurité et confiance numérique et Blockchain: Myth or Reality?, ainsi qu’un événement phare : le Cycle de Conférences CYGAL.

De 100 Go par jour en 1992 à 50 000 Go par seconde en 2017, la quantité de données produites et échangées bouleversent le marché informatique. Les infrastructures sans fil (wifi, bluetooth, 4G …) ou filaires (fibre optique, cuivre …), permettent la transmission de ces paquets d’informations avec des caractéristiques qui leurs sont propres en termes de débit, de distance de transmission ou de protocole utilisé. Outre ces avancées techniques, le Cloud Computing, c’est-à-dire l’accès à des ressources numériques par le biais de ces canaux, est en pleine expansion. En effet, de nombreuses entreprises jouent désormais la carte du nuage afin de réduire les coûts, gagner en agilité et déléguer la sécurité au fournisseur de service.

Les nouveaux usages impliquent la prise en compte de paramètres jusqu’à présent inexplorés.

Face à l’accroissement de la demande en débit, les nouveaux usages impliquent la prise en compte de paramètres jusqu’à présent inexplorés comme la qualité de service, la sécurisation ou encore la priorisation afin que l’échange soit optimal et sûr. A titre d’exemple, la télémédecine nécessite un transfert d’information prioritaire sur les autres ressources du réseau car la précision et la rapidité d’affichage d’une image est primordiale pour établir un diagnostic.

Aujourd’hui, les recherches se concentrent principalement sur la 5G et des paramètres liés à la qualité de service comme la vitesse, la couverture et la connectivité. Dans le monde, 4,5 milliards d’euros sont consacrés aux recherches et expérimentations sur la 5G. Quant à l’informatique en Cloud, il devrait atteindre entre 20 et 25% du marché informatique en 2020.

Le monde du logiciel est composé de 2 principales familles : les logiciels propriétaires et les logiciels libres. Les logiciels propriétaires sont verrouillés et le pouvoir des utilisateurs est restreint à leur simple exécution. Quant aux logiciels libres, les utilisateurs ont accès au code et disposent de plus de libertés. Après chaque modification du logiciel, le développeur partage son travail à la communauté afin que tout le monde puisse bénéficier de la valeur ajoutée. Gage de qualité, d’innovation accélérée et d’interopérabilité, le logiciel libre constitue un enjeu important pour les entreprises. Il offre également un avantage indéniable en termes de simplification juridique pour les entreprises – et donc de maîtrise du risque.

Dans l’écosystème de l’open source, on distingue 4 modèles : le modèle des communautés, le modèle des fondations, le modèle des éditeurs et des intégrateurs et le modèle des prestataires de services.

Cela fait plus de 30 ans que les premières licences libres sont apparues. Depuis, leur domaine d’application s’est considérablement élargi. Confrontées aux nouvelles questions émergeant de l’évolution des technologies (APIs, Web, Cloud, Internet des Objets…), du droit (débat sur le copyright sur les interfaces utilisateurs ou sur les brevets logiciels aux USA), ou de l’économie (nouveaux modèles d’affaires fondés sur le logiciel libre), ces licences ont évolué et de nouvelles sont apparues. Le cadre juridique des logiciels open source est complexe.

Le logiciel libre représente à ce jour en France 5 milliards d’euros de chiffre d’affaires annuel dans le secteur du logiciel et des services, et représente 50 000 emplois (source : PAC). Cela fait de la France l’un des leaders mondiaux en termes de production et d’adoption de logiciels libres. La question de l’empreinte du logiciel libre sur l’économie de notre pays ne se pose donc plus depuis plusieurs années.

La filière du logiciel libre est constituée de plusieurs associations aux rayonnements différents. Structurée et ambitieuse, cette filière a vu naître en 2010 le Conseil National du Logiciel Libre (CNLL). Cette entité a été fondée par 10 grandes associations et groupes thématiques dans l’objectif de devenir le porte-parole de la filière sur le plan national. Les actions du Conseil ont conduit, notamment, à la circulaire Ayrault (« Usage du logiciel libre dans l’administration publique en France ») ou plus récemment à la loi sur la « Priorité du logiciel libre dans l’Enseignement Supérieur et la Recherche ».

Le Pôle de compétitivité Systematic Paris-Region, a structuré l’écosystème francilien autour du Hub Open Source (anciennement Groupe Thématique “Logiciel Libre”) qui réunit 127 entreprises et établissements de recherche. L’ancien Groupe Thématique a publié 5 livrets bleus :

  • Fondamentaux juridiques : Collaboration industrielle et innovation ouverte
  • Open Source pour l’IoT
  • Modèles économiques
  • Qualité logicielle
  • Étudiants : croissance et opportunités

La modélisation représente de manière virtuelle, le plus fidèlement possible, des objets ou phénomènes réels. Suite à la modélisation vient s’ajouter la simulation numérique. Il s’agit de prédire le comportement d’éléments en fonction d’une multitude de variables. Les simulateurs fonctionnent à l’aide de nombreuses formules mathématiques complexes. Ces simulations sont possibles grâce aux supercalculateurs, des machines permettant de réaliser des calculs très poussés. Ces supercalculateurs, également appelés High Performance Computer (HPC), permettent d’effectuer des simulations toujours plus riches.

Ces outils sont nécessaires pour les filières industrielles et les PME car ils permettent d’accroître la productivité et les performances de production.

La croissance de cette puissance est bénéfique et utile tant qu’il est possible pour l’utilisateur d’en exploiter les données qui en résultent. Le champ d’application des modélisations et simulations est très vaste. À titre d’exemple, ces outils sont utilisés dans le domaine du numérique (déploiement de réseaux de télécommunications), dans la médecine (gestion des pandémies), dans l’environnement (gestion du risque)… Ces outils sont nécessaires pour les filières industrielles et les PME car ils permettent d’accroître la productivité et les performances de production, en termes de coût comme d’innovation. L’Île-de-France est précurseur dans le domaine puisqu’en matière de production et d’utilisation avancée, les principaux acteurs européens du secteur y sont présents. En France, le marché de la modélisation, simulation numérique et HPC représente plus de 3 milliards d’euros.

Le Hub Digital Engineering (anciennement Groupe Thématique “Outils de Conception et Développement de Systèmes” ou OCDS) accompagne les ETI, TPE et PME dans la découverte et le déploiement de solutions de simulation numérique grâce au programme SiMSEO.

En transformant les objets physiques en objets numériques, intelligents, autonomes et communicants, les technologies des systèmes embarqués modifient notre environnement. Facteurs de compétitivité, elles permettent d’évoluer vers des systèmes plus intelligents et plus efficaces dans de nombreux domaines d’applications (transports, défense, télécommunications…). Le marché de l’embarqué représente 21 milliards d’euros en France selon l’OPIIEC (Observatoire Paritaire de l’Informatique, de l’Ingénierie, des Études et du Conseil). Afin de mieux structurer et animer l’écosystème du logiciel et des systèmes embarqués, le Pôle Systematic Paris-Region a cofondé l’association Embedded France en 2013. Cette association rassemble les acteurs du système embarqué et joue un rôle important en matière de promotion du domaine.

Aujourd’hui, Internet ne se limite plus aux ordinateurs, smartphones et tablettes. Il existe désormais une multitude d’objets connectés qui forment un réseau étendu : l’Internet des objets.  Le champ d’application des objets connectés est très large : énergie (capteurs), sécurité (caméras de vidéosurveillance), santé (bracelet connecté) etc. Preuve que l’IoT est en plein essor, il y aura entre 50 et 80 milliards d’objets connectés dans le monde en 2020. Les pôles Systematic et Cap Digital proposent aux membres de leur écosystème, à travers le groupe de réflexion « Living Things », des conférences prospectives sur l’IoT.