bonne exploration des éléments théoriques & cognitifs de l'informatique
Loup PLes sciences informatiques De Turing à l'intelligence artificielle
Les points forts du livre :
- Une articulation rigoureuse entre théorie du calcul et pratique algorithmique,
- Une mise en perspective contemporaine de la cryptographie et de la sécurité,
- Une progression maîtrisée dans l’apprentissage machine et l’intelligence artificielle
- Niveau Initié à Confirmé
- Nombre de pages 600 pages
- Parution décembre 2025
- Niveau Initié à Confirmé
- Parution décembre 2025
Ce livre propose une exploration approfondie des fondements théoriques, algorithmiques et cognitifs de l’informatique. Il couvre les grands domaines qui forment l’infrastructure intellectuelle des systèmes modernes : algorithmique, complexité, structures de données, optimisation, cryptographie, apprentissage machine et intelligence artificielle.
Destiné aux étudiants, ingénieurs et autodidactes, il offre une compréhension solide des idées et modèles qui structurent l’informatique moderne, tout en invitant à développer un regard critique sur les technologies qui transforment notre rapport au savoir, à l’automatisation et à l’intelligence.
Avec clarté et rigueur, l’ouvrage expose les principes essentiels du calcul, de la sécurité de l’information et de la capacité des machines à apprendre automatiquement. Il retrace l’évolution des modèles d’IA (des premiers perceptrons aux grands modèles de langage comme GPT) en suivant une progression allant des notions élémentaires aux approches avancées telles que le Deep Learning, les transformers et l’IA générative. Chaque concept est replacé dans son contexte mathématique et computationnel, avec un constant souci de pédagogie et de précision.
Caractéristiques
- Livre (broché) - 27 x 25 cm
- ISBN : 978-2-409-05226-2
- EAN : 9782409052262
- Ref. ENI : DPHS-INFTURIA
Caractéristiques
- HTML
- ISBN : 978-2-409-05235-4
- EAN : 9782409052354
- Ref. ENI : LNDPHS-INFTURIA
Introduction
- Préface
- Avant-propos
Les sciences informatiques
- Introduction
- L’algorithmique
- 1. Les algorithmes
- 2. Les algorithmes classiques
- 3. L’efficacité des algorithmes
- 4. La notation Big-O : une mesure de la complexité asymptotique
- a. Complexité asymptotique temporelle
- b. Complexité asymptotique spatiale
- c. Exemples
- d. Autres notations utilisées en complexité asymptotique
- e. Conclusion
- 5. La machine de Turing
- 1. Le tri
- 2. La recherche
- 3. Les opérations dans les graphes
- 4. Beaucoup d’autres
- 1. Apparues avec les fondations de l’informatique
- 2. Les tableaux
- 3. Listes chaînées (linked lists)
- 4. Les piles et les files
- 5. Les arbres
- 6. Les graphes
- 7. Tables de hachage (hash tables)
- 8. Et bien d’autres
- 1. La récursivité
- 2. La programmation dynamique
- 3. Le backtracking
- 4. Les algorithmes gloutons
- 5. Vers des algorithmes plus élaborés
- 1. L’optimisation différentielle
- 2. Retour sur le calcul différentiel
- a. Fonctions convexes et non convexes
- b. Minimum et maximum locaux
- a. Algorithme d’optimisation différentielle
- b. L’importance de la convexité
- 1. Introduction à la méthode de Newton
- a. Relation entre courbure et optimisation
- b. Limites de la descente de gradient
- a. Principe de la méthode de Newton
- b. Formule de la mise à jour
- c. Utilisation la matrice Hessienne
- 1. Autres méthodes d’optimisation continues
- a. La méthode des points intérieurs
- b. La méthode des multiplicateurs de Lagrange
- c. En encore beaucoup d’autres
- a. Optimisation continue
- b. Optimisation discrète
- 1. La notion de « méthodeexacte »
- 2. Le problème du voyageur de commerce (TSP)
- 3. Le problème du sac à dos (KS)
- 4. Le problème de la clique
- 5. Le problème de coloration de graphe
- 6. Le problème d’affectation
- 7. Le problème SAT
- 8. Le problème 3-SAT
- 9. Les autres problèmes classiques
- 1. Le recuit simulé
- a. Algorithme du recuit simulé
- b. Concepts sous-jacents
- c. Utilisation et applications
- a. Processus des algorithmes génétiques
- b. Algorithme génétique
- c. Utilisation et applications
- a. Concepts sous-jacents
- b. Algorithme de la colonie de fourmis
- c. Utilisation et applications
- 1. La complexité polynomiale
- 2. La classe P
- 3. La classe NP
- 4. La notion de réduction
- 5. NP-complétude
- 6. La question P = NP
- 1. Le data mining
- 2. La data science
- 1. Premières approches naïves de larecherche d’information
- 2. Vers le TF-IDF : l’idée d’équilibrerfréquence et spécificité
- 3. Vers des modèles plus avancés
- 1. Information et quantité d’information
- 2. Entropie : la moyenne de l’incertitude
- 3. Calcul de la quantité d’informationet de l’entropie
- 4. Importance de l’entropie et de la quantité d’information
- a. En apprentissage machine
- b. En cryptographie
- c. En compression de données
- d. En statistique
La cryptographie
- Introduction
- Les principes de cryptographie
- 1. Histoire de la cryptographie
- 2. Cryptanalyse et la machine Enigma
- 3. Principe de Kerckhoffs
- 4. Définitions et notions clés
- La cryptographie symétrique
- 1. Notion de chiffre (cipher)
- a. Fonction de chiffrement
- b. Fonction de déchiffrement
- c. Espaces de clés et textes
- d. Fonction de permutation
- e. Conclusion
- 1. Notion de chiffre (cipher)
- 2. Chiffrement linéaire
- 3. Chiffrement affine
- 4. Chiffrement classique : Vigenère
- a. Chiffrement
- b. Déchiffrement
- c. Faiblesses du chiffre de Vigenère
- 5. Chiffrement classique : Hill
- a. Fonction de chiffrement
- b. Fonction de déchiffrement
- 6. Chiffrement par permutation
- 7. Chiffrement classique : One-Time Pad
- 8. Chiffrements de bloc sécurisé
- 9. Chiffrements par produit et tours de Feistel
- a. Tour de transformation et dérivation desclés
- b. Tour de Feistel
- 1. Fonctionnement de DES
- a. Le chiffrement DES
- b. Le déchiffrement DES : les étapesinverses
- c. Les opérations mathématiques sous-jacentes
- 1. Architecture générale d’AES
- 2. Les composants de AES en détail
- a. AddRoundKey
- b. SubBytes
- c. ShiftRows
- d. MixColumns
- 1. Les différents modes d’opérationet leur fonctionnement
- a. Mode ECB (Electronic Codebook)
- b. Mode CBC (Cipher Block Chaining)
- c. Mode CTR (Counter)
- 1. Fonction de hachage
- 2. Principes sous-jacents
- 3. MD5 (Message Digest 5)
- a. Fonctionnement global
- b. Une itération en détail
- c. MD5 aujourd’hui
- a. Fonctionnement de l’algorithme
- b. Une itération en détail
- c. SHA-1 aujourd’hui
- d. De SHA-1 à SHA-2
- 1. Fonctions de hachage avec clé
- 2. Code d’authentification de message (MAC)
- 3. HMAC (Hash-based Message Authentication Code)
- 4. CBC-MAC
- 5. Sécurité des protocoles MAC
- 6. Utilisation des protocoles MAC
- 1. Les fonctions à sens unique
- 2. Les fonctions avec porte dérobée(Trapdoor)
- 1. Principe du protocole Diffie-Hellman
- 2. Sécurité du protocole
- 1. Génération de clés RSA
- 2. Chiffrement et déchiffrement
- 3. Preuve de correction du déchiffrement RSA
- 4. Sécurité du protocole
- a. Pourquoi p et q sont nécessaires pour calculerd ?
- b. Si l’attaquant connaît p et q
- c. Pourquoi l’attaquant ne peut pas inversere directement ?
- 1. Principe et fonctionnement des courbes elliptiques
- 2. Addition et multiplication scalaire sur courbes elliptiques
- 3. Approche de sécurité avec la cryptographiesur courbes elliptiques
- 4. Utilisation des courbes elliptiques en cryptographie
- 5. Avantages et inconvénients de l’ECC
- 1. DSA
- 2. ChaCha20
- 3. Blowfish
- 4. Twofish
- 5. Salsa20
- 6. EdDSA
- 1. Introduction à l’informatique quantique
- 2. Impact sur les algorithmes cryptographiques classiques
- a. Cryptanalyse via l’algorithme de Shor
- b. Recherche quantique avec l’algorithme deGrover
- 1. Types d’attaques en sécurité informatique
- 2. Types de vulnérabilités
- 3. L’OWASP
- 4. Le SANS Top 25
- 5. Autres normes et meilleures pratiques
- 6. Conclusion
Des premiers virements électroniques à la blockchain
- Introduction
- Les transferts de fonds électroniques
- 1. Les prémices des virements électroniques
- a. Le télégraphe (milieu du 19e siècle)
- b. Le télégraphe bancaire (fin 19esiècle)
- 1. Les prémices des virements électroniques
- 2. Les premiers véritables virements électroniques
- a. Le développement des systèmes internesde virement (années 1960)
- b. L’émergence des chambres de compensationautomatisées
- 3. L’émergence des réseauxinternationaux
- a. Le besoin de standardisation et de sécurité
- b. La création de SWIFT
- 4. Les sociétés de compensation etles systèmes RTGS
- a. Les systèmes RTGS
- b. Les sociétés de clearing internationales
- 1. Le problème des chambres de compensation
- a. Problèmes de centralisation et vulnérabilité auxcrises
- b. Coûts et délais
- c. Manque de transparence
- 1. Une vue simplifiée de la blockchain
- 2. Les origines de la blockchain et du Bitcoin
- 3. La blockchain de Bitcoin
- 4. Une vue sur les opérations de la blockchain
- 5. Les mineurs et la « preuve de travail »
- 1. La structure de données
- 2. Une première vue de la structure d’unbloc
- 3. La vie d’un mineur
- 4. L’ajustement de la difficulté
- 5. La récompense du minage et la créationde bitcoins
- 6. Une réserve de bitcoins limitée
- 7. Cryptographie des portefeuilles numériques
- 8. Les arbres de Merkle
- 9. Un réseau pair-à-pair
- 10. Blocs orphelins, éteints et périmés
- 11. L’attaque des 51 pour cent
- 1. Au-delà des transactions financières
- 2. D’un journal de transactions à unjournal d’application
- 3. Ethereum
- 4. Et d’autres
- 1. Origine des contrats intelligents
- 2. Des contrats traditionnels aux contrats intelligents
- 3. Caractéristiques des contrats intelligents
- 4. Avantages des contrats intelligents
- 5. Contrats intelligents et oracles
- 6. Le défi des oracles
- 7. Cas d’usage des oracles
- 1. Revenons sur la preuve de travail
- 2. Les inconvénients de la preuve de travail
- 3. Une alternative avec la preuve d’enjeu
- 4. Fonctionnement de la preuve d’enjeu
- 5. Avantages et limites de la preuve d’enjeu
- 6. Une approche pour sélectionner les validateurs,la DPoS
- 1. Histoire des actifs numériques
- 2. Fonctionnement des actifs numériques
- 3. Types d’actifs numériques
- a. Security Tokens
- b. Utility Tokens
- c. Autres
L'apprentissage machine
- Introduction
- Concepts de base
- 1. Des systèmes experts à l’apprentissagemachine
- 2. Apprentissage automatique ou apprentissage machine?
- 3. Apprentissage machine supervisé et non supervisé
- 4. Apprentissage entraîné et non entraîné
- 5. Les hyperparamètres
- 6. Les problèmes de surapprentissage et sous-apprentissage
- 7. Des variables aux caractéristiques
- 8. L’ingénierie de caractéristiques
- 9. Apprentissage machine contre méthode exacte
- 10. Fonctions de perte et de coût
- 11. Les fonctions d’activation
- a. Les fonctions habituelles
- b. La fonction d’activation sigmoïde
- c. La fonction d’activation ReLU
- d. la fonction d’activation SoftMax
- 1. Histoire du perceptron
- 2. Fonctionnement du perceptron
- 3. Apprentissage du perceptron
- 4. Utilisation et applications
- 1. Histoire des modèles régressifs
- 2. Fonctionnement des modèles régressifs
- 3. Mathématiques sous-jacentes des modèlesrégressifs
- 4. Utilisation et applications
- 1. Histoire du clustering
- 2. Fonctionnement du clustering
- 3. Algorithme k-means
- 4. Métriques de distance
- 5. Utilisation et applications
- 1. Histoire des réseaux de neurones
- 2. Principe des réseaux de neurones
- 3. Fonctionnement d’un neurone en MLP classique
- 4. Utilisation et applications
- 1. Histoire de la rétropropagation
- 2. Principe de la rétropropagation
- 3. Objectifs de la rétropropagation
- a. L’erreur quadratique moyenne (MSE)
- b. L’entropie croisée
- a. Initialisation des poids du réseau
- b. Passe avant (Forward pass)
- c. Rétropropagation (backpropagation)
- d. La propagation arrière en pratique
- e. Mise à jour des poids
- f. Résumé du processus
- a. Traitement d’une seule entrée à lafois
- b. Traitement de plusieurs entrées à lafois (Mini-Batchs)
- c. Traitement de l’ensemble du jeu de données à lafois (Batch Gradient Descent)
- a. Passe avant
- b. Rétropropagation
- c. Pourquoi passer aux matrices ?
- 1. Histoire des arbres de décision
- 2. Principe des arbres de décision
- 3. Fonctionnement des arbres de décision
- a. Mesures utilisées
- b. Algorithme de construction
- 1. Histoire des réseaux neuronaux convolutifs
- 2. Principe des réseaux neuronaux convolutifs
- 3. Fonctionnement des réseaux neuronaux convolutifs
- a. Couches convolutives
- b. Fonction d’activation
- c. Couches de pooling
- d. Couches Fully Connected (FC)
- a. Initialisation de la matrice de filtre (noyau convolutif)
- b. Passage avant (forward pass)
- c. Rétropropagation de l’erreur
- d. Mise à jour des poids du filtre (descentede gradient)
- e. Répétition du processus
- 1. Histoire des RNN
- 2. Principe des RNN
- a. Modèle de base d’un RNN
- b. L’état caché
- c. Les couches récurrentes
- 1. Histoire de la rétropropagation dans le temps
- 2. Principe de la rétropropagation dans le temps
- a. Principe fondamental
- b. Une différence de perspective entre rétropropagationclassique et BPTT
- c. Processus mathématique
- a. Rappel des fonctions de coûts
- b. Calculs de la passe avant (forward pass)
- c. Calculer le gradient de l’erreur par rapport à lasortie
- d. Calculer le gradient par rapport à l’étatcaché
- e. Calculer les gradients des poids et des biais
- f. Mise à jour des poids avec la descente degradient
- 1. Les gradients qui disparaissent
- 2. Les gradients qui explosent
- 1. Principe des LSTM
- 2. Fonctionnement des LSTM
- a. Porte d’oubli (<span class="italic">f<sub class="subscript">t</sub></span>)
- b. Porte d’entrée (<span class="italic">i<sub class="subscript">t</sub></span>)
- c. Création de la nouvelle mémoirecandidate
- d. Mise à jour de la cellule de mémoire
- e. Porte de sortie (O<span class="italic">t</span>)
- f. Calcul de l’état caché etla sortie (<span class="italic">h<sub class="subscript">t</sub></span>)
- g. Conclusion
- a. Calculs des dérivées partielles
- b. Avantages et approche
- 1. Fonctionnement et principe du deep learning
- 2. Dimensions du deep learning
- a. Nombre de couches cachées
- b. Nombre de neurones
- 1. Principes de fonctionnement des transformers
- a. L’attention à produit scalaire
- b. Encodage de position
- c. Encodage et décodage
- d. Structure des couches
- e. Tokenization des séquences
- f. Conclusion
- a. Tokenization et encodage en embedding (A1)
- b. Encodage positionnel (A2)
- c. Une pile de couches d’encodage (A3)
- d. Mécanisme d’auto-attention multitête(A31)
- e. Normalisation et connexions résiduelles (A32)
- f. Réseau de neurones feed-forward (A33)
- g. Sortie de l’encodeur (A4)
- a. Tokenization et Embeddings de sortie (B1)
- b. Encodage positionnel (B2)
- c. Une pile de couches de décodage (B3)
- d. Mécanisme d’auto-attention masque(B31)
- e. Attention multitête encodeur-décodeurou attention croisée (B32)
- f. Réseau de neurones feed-forward (B33)
- g. Classificateur linéaire et Softmax pour générerles probabilités de sortie (C)
- h. Sortie du décodeur
- 1. Les transformers : une architecture de base flexible
- 2. GPT : une spécialisation des transformerspour la génération de texte
- 3. Comparaison entre GPT et transformers génériques
- 4. Utilisation des GPT
- 1. Analyse en composantes principales (PCA)
- 2. Machines à vecteurs de support (SVM)
- 3. Réseaux antagonistes génératifs(GAN)
- 4. Les auto-encodeurs (AE)
- 5. Les réseaux bayésiens
- 1. L’apprentissage par renforcement (RL)
- 2. L’apprentissage par transfert (TL)
- 3. L’apprentissage fédéré (FL)
- 4. L’apprentissage actif (AL)
- 1. TensorFlow
- 2. PyTorch
- 3. Scikit-Learn
- 4. Apache Spark MLlib
- 5. Apache Flink ML
- 6. Autres
L’intelligence artificielle
- Introduction
- Intelligence artificielle et apprentissage machine
- 1. Deux choses différentes
- 2. Pourquoi sont-ils souvent confondus ?
- 3. Différences essentielles
- IA prédictive vs IA générative
- 1. IA prédictive
- 2. IA générative
- 3. Distinction
- Les limites de l’IA
- 1. Limitations techniques
- 2. Limites éthiques et biais
- 3. Limites conceptuelles
- 4. Le problème du stock de données
- 5. Un développement rapide, mais des perspectivesencore incertaines
- L’intelligence augmentée contre l’intelligence artificielle
- Réalité et science-fiction
- 1. L’IA faible : des systèmes spécialisés
- 2. L’IA forte : une intelligence semblable à cellede l’humain
- 3. L’IA générale : une polyvalencecomparable à l’intelligence humaine
- 4. Consensus actuel : l’IA généraleet forte, un objectif lointain
Arsenal mathématique
- Introduction
- Notions d’algèbre fondamentales
- 1. Fonction mathématique
- a. Notation de base d’une fonction
- b. Notation ensembliste
- c. Qualités injectives, surjectives et bijectivesdes fonctions
- d. Notation pour les compositions de fonctions
- e. Notation pour les fonctions inverses
- 1. Fonction mathématique
- 2. Introduction aux prédicats mathématiques
- a. Définition des prédicats
- b. Les quantificateurs
- c. Négation des quantificateurs
- d. Implication et équivalence
- 3. Introduction à la notation de somme
- 4. Introduction à la notation de produit
- 5. La valeur absolue
- 6. Notions de variation et de limite
- a. Introduction à la notion de delta
- b. Introduction à la notion de limite
- c. Utilisations générales des conceptsde delta et de limite
- 1. Opérations fondamentales
- 2. Ensembles remarquables
- 1. Addition de matrices
- 2. Produit scalaire entre vecteurs
- 3. Norme d’un vecteur
- 4. Formule géométrique du produit scalaireet identité remarquable
- 5. Multiplication par un scalaire
- 6. Multiplication de matrices
- 7. Transposition de matrices
- 8. Le déterminant d’une matrice
- a. Cas triviaux
- b. Cas général : Développementpar les cofacteurs
- c. Interprétation géométrique
- d. Propriétés du déterminant
- e. Exemple pratique
- a. Étapes pour calculer la matrice adjointe
- b. Propriétés importantes
- c. Exemple pour une matrice 2 x 2
- a. Calcul des valeurs propres
- b. Exemple
- c. Utilisation des valeurs propres
- 1. Calcul des dérivées
- 2. Dérivées ordinaires et dérivéespartielles
- a. Calcul des dérivées partielles
- b. Remarque sur les notations de dérivées
- c. Calcul du gradient
- a. Définition et notation
- b. Exemple de dérivée seconde
- c. La matrice Hessienne
- d. Exemple de Hessienne
- 1. Concepts fondamentaux
- a. Division euclidienne
- b. Nombre premier
- c. Théorème de décomposition
- d. Le plus grand commun diviseur (PGCD)
- a. Congruence et relation de divisibilité
- b. Structure modulaire et classes d’équivalence
- c. Propriétés de la congruence
- a. Algorithme d’Euclide
- b. Théorème de Bézout
- c. Algorithme d’Euclide étendu
- a. Algorithme pour trouver l’inverse modulaire
- b. Propriétés de l’inversemodulaire
- c. Ensemble des inversibles modulo m
- a. Description
- b. Exemple
- a. Algorithme
- b. Exemple
- a. Notation
- b. Théorème : Approximation du nombrede nombres premiers
- c. Remarque
- d. Meilleure approximation
- e. Test de non-primalité : par divisions
- a. Test de Fermat
- b. Exemple
- c. Les pseudo-premiers de Fermat
- a. Principe du test
- b. Conséquence du test
- c. Avantage
- d. Algorithme pour le test de non-primalité (Miller-Rabin)
- a. Exponentiation au modulo d’un produit denombres premiers
- b. Théorème d’utilisationde la fonction d’Euler
- c. Calcul modulaire via CRT
- 1. Polynômes à coefficients modulaires
- a. Formalisme
- b. Exemple
- a. Notion fondamentale des corps finis de polynômes
- b. Nombre d’éléments
- a. Formalisation
- b. Exemple
- a. Les générateurs pour les corps depolynômes
- b. Théorème de Fermat pour les corpsde polynômes
- a. Étapes pour trouver l’inverse dansun corps
- b. Exemple
Conclusion
- Épilogue
- En conclusion
- Derniers mots de l’auteur
Livre trés instructif et une vrai capacité de vulgarisation technique de l’auteur. Vive ENI et les auteurs français en informatique
Camille AJe n'en suis qu'au début du livre, donc donner des étoiles ne rime à rien. Mais le style est clair et précis. Pas de difficulté de compréhension pour quelqu'un de nature scientifique.
Francis GTrès bon livre Le contenu est intéressant mais il reste trop théorique. Il devrait davantage présenter des exemples concrets.
AnonymeJérôme KEHRLI
Jérôme KEHRLI est un expert reconnu en ingénierie logicielle, en intelligence artificielle et en architecture des systèmes d’information, avec plus de vingt ans d’expérience dans la conception et l’évolution de plateformes critiques, notamment dans le secteur financier. Ancien CTO de NetGuardians et aujourd’hui Head of Technology chez DuoKey, il allie une vision stratégique à une expertise technique approfondie, qu’il partage également en tant qu’enseignant et consultant. Son parcours nourrit son intérêt pour l’histoire et les fondements des sciences informatiques, qu’il explore et transmet à travers l’écriture de ce livre.


