Ce livre, pour lequel deux axes de lecture sont possibles, a pour objectif de proposer une formation complète et opérationnelle sur les data sciences. Le premier axe permet au lecteur d’apprendre à délivrer des solutions complètes via l'usage du langage R et de son écosystème, et le second lui permet d’acquérir une culture approfondie des data sciences tout en faisant abstraction du détail du code R grâce à l’utilisation d’un outillage interactif qui ne nécessite pas d’apprendre à...
Ce livre, pour lequel deux axes de lecture sont possibles, a pour objectif de proposer une formation complète et opérationnelle sur les data sciences. Le premier axe permet au lecteur d’apprendre à délivrer des solutions complètes via l'usage du langage R et de son écosystème, et le second lui permet d’acquérir une culture approfondie des data sciences tout en faisant abstraction du détail du code R grâce à l’utilisation d’un outillage interactif qui ne nécessite pas d’apprendre à coder en R.
Ainsi, les auteurs proposent un parcours didactique et professionnalisant qui, sans autre prérequis qu'un niveau Bac en mathématiques et une grande curiosité, permet au lecteur :
• de s'intégrer à une équipe de data scientists ;
• d'aborder la lecture d'articles de recherche en IA ou data sciences ;
• de développer en langage R ;
• et de dialoguer avec une équipe projet comprenant des data scientists.
Le livre ne se cantonne pas aux algorithmes classiques du Machine Learning (arbres de décision, réseaux neuronaux…), il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue ou la manipulation des images.
Les sujets pratiques ou difficiles ne sont pas éludés. Le livre appréhende l’accès aux bases de données, les processus parallèles, la programmation fonctionnelle et la programmation objet, la création d’API, le partage de résultats d'analyse avec R Markdown et les dashboard Shiny, l'étude des représentations cartographiques ou encore l'implémentation du Deep Learning avec TensorFlow-2 et Keras.
À la demande des lecteurs, cette troisième édition présente également une ouverture vers le langage Python et son interface avec R ainsi que l’installation d’une application R/shiny accessible sur internet via un serveur Linux abrité sur un cloud professionnel. Une extension vers l’utilisation de R pour les calculs numériques et les calculs mathématiques pour l’ingénierie dans le même esprit que MatLab ainsi que l’usage basique d’un outil de prototypage rapide de modèles de Machine Learning (BigML) en « point and click » permettront au lecteur ne voulant pas utiliser R de produire des modèles de prédiction sans coder !
La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences et l'évolution de ses compétences théoriques et pratiques. Le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data sciences de l'introduction, qui sans vulgarisation excessive présente le sujet en faisant l'économie de mathématiques ou de formalismes dissuasifs.
Les programmes R décrits dans le livre sont accessibles en téléchargement sur le site www.editions-eni.fr et peuvent être exécutés pas à pas.
6.3 Équation différentielle du second degré (problème aux limites)
6.3.1 EQD linéaire (2nd degré)
6.3.2 EQD non linéaire (2nd degré)
7. Éléments pratiques de calcul différentiel
7.1 Fonctions réelles d’un réel
7.2 Fonctions réelles d’un vecteur
7.2.1 Calcul des dérivées partielles
7.2.2 Calculs d’opérateurs utilisant les dérivées partielles
7.3 Fonctions vectorielles d’un vecteur
8. Calcul symbolique avec SymPy
8.1 Documentation à consulter
8.2 Accéder aux résultats dans Rmarkdown
R et Python
1. Une polémique stérile, mais une vraie question : R ou Python ?
2. Exemples de codes R et Python comparables
2.1 Codes triviaux
2.2 Packages
2.3 Fonctions simples
2.4 Structures de données
2.5 Booléens
2.6 Programmation de base
2.7 Création de fonctions
2.8 Blocs et indentation
2.9 Datasets
3. Accéder à Python à partir de R
3.1 Installation et initialisation du contexte technique
3.2 Interactions R et Python, du point de vue R
3.2.1 Partage de variables et exécution de code Python dans le biotope R
3.2.2 Librairies Python dans du code R, exemples NLP
4. Considérations sur les cas difficiles
Deep learning avec TensorFlow et Keras
1. Deep learning selon Google
2. Installation et initialisation de votre contexte technique
3. Tenseurs TensorFlow/Keras
3.1 Forme des tenseurs
3.2 Manipulation des tenseurs
3.3 Autre usage du framework
4. Mise au point d’un modèle de référence en utilisant caret
5. Création d’un modèle avec TensorFlow 2 et Keras
5.1 Initialisation et préparation des données
5.2 Étape 1 : décrire la structure du réseau
5.3 Étape 2 : compiler le modèle
5.4 Étape 3 : training
BigML, le machine learning pour tous
1. Introduction
2. Pour qui ?
3. Présentation de la démarche
4. Manipulation des sources de données
5. Création de projets
6. Manipulation de datasets
7. Division du jeu de données
8. Création d’un modèle de machine learning
8.1 Paramétrages des modèles
8.2 Visualisation du modèle
8.3 Filtrage et élagage
8.4 Autres visualisations
9. Évaluation du modèle
10. Partage de ses modèles
11. Réalisation d’une première prédiction
12. Utilisation du modèle dans R
Déploiement Shiny sur votre propre Cloud
1. Introduction
2. Location d’un serveur
3. Création d’une machine virtuelle
4. Se connecter à distance à votre machine
4.1 Installation du client SSH
4.1.1 OpenSSH
4.1.2 GitBash
4.2 Génération des clés publique et privée
4.3 Gestion des paquets
5. Ajout des composants logiciels de base
6. Installation de R et de Shiny
7. Paramétrage réseau et Linux
7.1 Paramétrer le VCN (Virtual Cloud Network)
7.2 Gestion du firewall
7.3 Se doter d’une application de monitoring : htop
7.4 Se doter d’un serveur HTTP (Apache)
7.5 Installation de Webmin
Annexes
1. De l'utilité de ces annexes
2. Formulas
3. Stratégies suivant la nature des données
3.1 Comptages
3.2 Proportions
3.3 Variable de réponse binaire
3.4 Données induisant un modèle mixte (mixed effect)
3.5 Graphes
3.6 Analyse de survie (survival analysis)
4. Filtres (sur images)
5. Distances
6. Astuces et petits conseils
6.1 Sur les tests
6.2 Gestion des variables
6.3 Analyse et manipulation de résultats
6.3.1 Résidus
6.3.2 Manipulation des modèles
7. Packages et thèmes à étudier
7.1 Créer son propre package
7.2 Règles d'association
7.3 Exporter un modèle
7.4 Tenseurs
7.5 SVM pour la détection de nouveautés (novelty detection)
8. Vocabulaire et "tricks of the trade"
8.1 Compléments sur les bases du machine learning
8.2 Compléments sur les aspects bayésiens
8.3 Vocabulaire (dont anglais) des modèles gaussiens
9. Algorithmes à étudier
10. Quelques formulations d'algèbre linéaire
11. Bibliographie
Conclusion
Index
livre intéressant pour débuter avec le langage R mais sans grand intérêt pour les data sciences
GILLES SRéponse de ENI,
Bonjour Gilles,
Nous vous remercions pour votre retour.
Le livre se découpe en 2 grandes parties : l'apprentissage du langage R dans un premier temps, puis la découverte des data sciences dans une seconde partie.
Nous regrettons votre insatisfaction. Peut-être étiez vous déjà en partie formé aux data sciences ? Aviez-vous des attentes précises sur cette thématique ?
Nos 2 auteurs sont des professionnels reconnus, impliqués dans des projets de data science.
N'hésitez pas à découvrir leur parcours pour mieux comprendre leur approche :)L'équipe Editions ENI vous remercie.
Eva LAUDE
Eva LAUDE exerce ses activités de conseil et de chefferie de projet en Data science dans des secteurs variés (INSEE, entreprises de biotechnologie ou ESN). Parallèlement à ses activités professionnelles de développeuse R-Shiny, elle organise des data-challenges dans différents organismes et écoles où elle intervient comme enseignante associée. Geek et passionnée par R , la DataViz et le Data Journalisme, elle n’hésite pas à partager ses connaissances au travers de nombreux tutoriels et participe à la revue académique Management&Data Science.
Henri LAUDE est un professionnel reconnu des Computer Sciences. Il a encadré de nombreux travaux de R&D sur les data sciences, l'IA, les Fintech, la détection de fraudes et le déploiement d’architectures Big Data. Il est co-fondateur d’Advanced Research Partners, où il anime la conception d'algorithmes très novateurs. Primé à plusieurs reprises pour ses solutions innovantes, comme au Data Intelligence Forum avec une IA spécialisée dans l’intelligence économique nommée DxM (pour Deus eX Machina), il intervient sur des projets aussi variés que l’élaboration d’un exosquelette intelligent ou les IA de cyber protection.