• Aide

Maths et Maple

Livre

  • Éditeur(s)
  • Date
    • 1998
  • Notes
    • La couv. porte en plus : "2e cycle, écoles d'ingénieurs"
    • Index
  • Langues
    • Français
  • Description matérielle
    • XII-466 p. : ill., couv. ill. en coul. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-10-003651-3
  • Indice
    • 518.5 Logiciels de calcul numérique
  • Quatrième de couverture
    • Maple est aujourd'hui le logiciel de calcul symbolique le plus utilisé, notamment dans les classes préparatoires aux grandes écoles. Remarquable par sa puissance de traitement et la simplicité de sa syntaxe, il permet d'aborder et de résoudre de nombreux problèmes scientifiques.

      Maths et Maple est organisé autour de quelques grands thèmes : suites numériques, polynômes, problèmes d'interpolation, décompositions matricielles, valeurs et vecteurs propres, méthodes d'intégration approchée, sommes de séries et équations différentielles. Ces thèmes, toujours abordés en douceur, sont ensuite approfondis, la démarche expérimentale étant toujours privilégiée.

      L'auteur ne se propose pas de démontrer mais de montrer. Les résultats théoriques sont rappelés puis soumis à vérification avec Maple. D'autres directions de recherche sont alors explorées. Pour traiter un même problème, plusieurs solutions sont proposées, et leurs mérites respectifs comparés.

      Cet ouvrage, résolument pratique et pédagogique, montre que Maple peut se révéler un formidable outil d'apprentissage et d'appropriation personnelle des mathématiques. Il intéressera tous ceux qui apprécient que Maple permette de concilier en mathématiques la rigueur de la théorie avec le plaisir de l'expérimentation.

      Jean-Michel Ferrard, professeur de mathématiques en classes préparatoires à Lyon. Il est aujourd'hui engagé dans une réflexion sur l'utilisation des outils de calculs formels dans l'enseignement.

      Mathématiques

      Physique

      Chimie

      Physique appliquée

      Informatique

      Sciences de la nature et de la vie

      Illustration de couverture : Isabelle Paisant - Lionel Auvergne

      Dunod

  • Tables des matières
    • Maths et Maple
      Jean-Michel Ferrard
      Dunod
      • Avant-proposXI
      • Chapitre 1 • Suites numériques1
      • 1. La suite de Syracuse1
      • 1.1 A la recherche des orbites1
      • 1.2 Pour une étude plus efficace6
      • 1.3 A la recherche des records8
      • 1.4 Accélérer encore les recherches10
      • 2. La suite logistique13
      • 2.1 La fonction f(x) = 4x(1 - x) sur [0, 1]13
      • 2.2 Les suites un+1 = f(un)16
      • 2.3 Une hypersensibilité aux erreurs d'arrondis20
      • 2.4 Régler la sensibilité du système22
      • 2.5 A la recherche des cycles29
      • Chapitre 2 • Polynômes35
      • 1. Factorisation de xn - 1 à coefficients entiers35
      • 1.1 Premières factorisations35
      • 1.2 Coefficients apparaissant dans la factorisation36
      • 1.3 Chercher les coefficients différents de ±137
      • 1.4 Etude des exposants «remarquables»39
      • 1.5 Utilisation des polynômes cyclotomiques41
      • 1.6 Amélioration de notre méthode43
      • 2. Suites de Sturm44
      • 2.1 Généralités44
      • 2.2 Euclide au secours de Sturm46
      • 2.3 Premières applications numériques47
      • 2.4 Cas des racines réelles multiples49
      • 2.5 Calcul du nombre total de racines réelles55
      • 2.6 Isolement des racines57
      • 2.7 Les fonctions intégrées sturm et sturmseq59
      • 3. Schémas de Horner et applications60
      • 3.1 Calcul de P(Bêta)60
      • 3.2 Division par (X - Bêta)62
      • 3.3 Méthode de déflation63
      • 3.4 Translation d'un polynôme68
      • 3.5 Calcul des dérivées71
      • 3.6 La règle des signes de Descartes73
      • 4. Méthodes de Newton75
      • 4.1 Généralités et premières impressions76
      • 4.2 A la recherche des racines complexes83
      • 4.3 De la plus grande des racines à toutes les racines86
      • 4.4 Efficacité de la méthode de Newton90
      • 4.5 La méthode de doublement du pas93
      • 4.6 Méthode de Maelhy95
      • 4.7 Maelhy + doublement du pas100
      • 4.8 Une méthode de Newton d'ordre 2102
      • Chapitre 3 • Interpolation107
      • 1. Polynôme d'interpolation de n points107
      • 2. Interpolation d'une fonction (abscisses équidistantes)109
      • 2.1 Le phénomème de Runge111
      • 3. Interpolation d'une fonction (abscisses de Tchebichev)113
      • 3.1 Polynômes de Tchebichev113
      • 3.2 Abcisses de Tchebichev115
      • 4. Formes de Lagrange et de Newton116
      • 4.1 Forme de Lagrange116
      • 4.2 Différences divisées117
      • 4.3 Différences divisées et dérivées successives119
      • 4.4 Forme de Newton du polynôme d'interpolation119
      • 4.5 Forme de Newton et schéma de Horner121
      • 5. Algorithme de Neville122
      • 5.1 Principe de la méthode122
      • 5.2 Programmation de l'algorithme de Neville123
      • 6. Polynôme d'interpolation d'Hermite125
      • 6.1 Une méthode «brutale»125
      • 6.2 Une méthode astucieuse ?127
      • 6.3 Troisième méthode (la meilleure)128
      • 6.4 Tracé du polynôme d'Hermite129
      • 6.5 Utilisation des abscisses de Tchebichev130
      • 7. Interpolation par splines cubiques132
      • 7.1 Position du problème132
      • 7.2 Etude d'un exemple133
      • 7.3 Vérification134
      • 7.4 Tracé de la fonction spline135
      • 7.5 La fonction spline intégrée à Maple136
      • 7.6 Programmation de l'interpolation par splines cubiques136
      • 7.7 Comparaison avec les autres méthodes d'interpolation138
      • 8. Interpolation par fractions rationnelles140
      • 8.1 Par coefficients indéterminés140
      • 8.2 Par différences divisées réciproques145
      • 8.3 Par une méthode de type «à la Neville»148
      • 9. Interpolation trigonométrique149
      • 9.1 Position du problème149
      • 9.2 Retour à l'interpolation polynomiale149
      • 9.3 Programmation de la méthode150
      • 9.4 Exemples d'utilisation152
      • 9.5 Une méthode directe (abscisses équiréparties)154
      • 9.6 Exemples d'utilisation156
      • 9.7 Rapport avec les coefficients de Fourier157
      • Chapitre 4 • Intégration approchée159
      • 1. Formules de Newton-Cotes159
      • 1.1 «Newton-Cotes» sur [0, 1]159
      • 1.2 «Newton-Cotes» sur [a, b]160
      • 1.3 Les méthodes classiques161
      • 1.4 Une première amélioration163
      • 1.5 Une deuxième amélioration164
      • 1.6 Nouvelle programmation de la méthode166
      • 1.7 Une autre méthode de calcul166
      • 1.8 Etude de la précision de la méthode de Simpson169
      • 1.9 Etude d'un premier exemple171
      • 1.10 Deuxième exemple172
      • 1.11 Troisième exemple173
      • 1.12 Retour au premier exemple173
      • 2. Accélération de Romberg175
      • 2.1 Le principe de la méthode175
      • 2.2 Programmation de la méthode177
      • 2.3 Exemples d'utilisation178
      • 2.4 Nouvelle programmation de la méthode de Romberg179
      • 3. Méthode de Gauss181
      • 3.1 Méthode de Gauss-Legendre181
      • 3.2 Autres méthodes de Gauss187
      • 3.3 Gauss-Tchebichev188
      • 3.4 Gauss-Laguerre191
      • 3.5 Gauss-Hermite192
      • 4. Formule d'Euler-MacLaurin194
      • 4.1 Intégrations par parties répétées194
      • 4.2 Définition des polynômes de Bernoulli195
      • 4.3 Intérêt des polynômes de Bernoulli196
      • 4.4 Formule d'Euler-MacLaurin sur [0, 1]198
      • 4.5 Formule d'Euler-MacLaurin sur [a, b]199
      • 4.6 Précision de la méthode200
      • 4.7 Cas des fonctions périodiques201
      • 5. Intégrales avec singularités202
      • 5.1 Une formule de Newton-Cotes «ouverte»202
      • 5.2 Une accélération de Romberg «ouverte»206
      • 5.3 Le changement de variable208
      • 5.4 Autres méthodes211
      • Chapitre 5 • Décompositions matricielles217
      • 1. La décomposition LU (ou PLU)217
      • 1.1 Préliminaires mathématiques217
      • 1.2 Une méthode «bête et brutale»218
      • 1.3 Amélioration de la méthode222
      • 1.4 Rappels sur les «opérations élémentaires»223
      • 1.5 Décomposition LU et opérations élémentaires225
      • 1.6 Quand une matrice de permutation est nécessaire229
      • 1.7 Quand une matrice de permutation est souhaitable231
      • 1.8 Algorithme de Crout233
      • 1.9 La fonction intégrée LUdecomp235
      • 2. La décomposition QR237
      • 2.1 Préliminaires mathématiques237
      • 2.2 Méthode de Gram-Schmidt (première version)238
      • 2.3 Méthode de Gram-Schmidt (deuxième version)239
      • 2.4 Méthode de Gram-Schmidt (troisième version)240
      • 2.5 Méthode de Givens242
      • 2.6 Méthode de Householder247
      • 2.7 La fonction intégrée QRdecomp254
      • 2.8 Questions de précision255
      • 3. Décomposition de Choleski258
      • 3.1 Préliminaires mathématiques258
      • 3.2 Une méthode par coefficients indéterminés260
      • 3.3 Deuxième méthode263
      • 3.4 La fonction intégrée cholesky266
      • 3.5 Rapports entre Choleski, LU et QR268
      • Chapitre 6 • Valeurs et vecteurs propres271
      • 1. Utilisation du package linalg271
      • 1.1 eigenvals, charmat, charpoly, eigenvects271
      • 1.2 Un programme de diagonalisation273
      • 1.3 Deux applications de la diagonalisation277
      • 1.4 L'instruction intégrée jordan280
      • 2. Méthodes de puissances itérées285
      • 2.1 Puissances itérées directes : un exemple286
      • 2.2 Généralisation291
      • 2.3 Vitesse de convergence295
      • 2.4 Méthode de déflation297
      • 2.5 Puissances itérées inverses299
      • 2.6 Méthode du quotient de Rayleigh302
      • 2.7 Méthode des réflexions de Householder304
      • 3. Méthode de Jacobi (matrices symétriques)305
      • 3.1 Principe de la méthode305
      • 3.2 Construire des matrices de rotations306
      • 3.3 Utilisation des matrices de rotations306
      • 3.4 Recherche de la meilleure rotation possible307
      • 3.5 Etude d'un exemple308
      • 3.6 Programmation de la méthode de Jacobi310
      • 3.7 Exemples d'utilisation310
      • 3.8 Une amélioration de la méthode312
      • 3.9 Exemples d'utilisation313
      • 4. Tridiagonalisation (matrices symétriques)314
      • 4.1 Matrices tridiagonales symétriques314
      • 4.2 Tridiagonalisation (Givens)315
      • 4.3 Tridiagonalisation (Householder)320
      • 4.4 Valeurs propres des matrices tridiagonales symétriques324
      • 5. Méthodes QR, LU, Choleski333
      • 5.1 Utilisation de la décomposition QR333
      • 5.2 Méthode QR améliorée par décalages337
      • 5.3 Utilisation de la décomposition LU339
      • 5.4 Utilisation de la décomposition de Choleski343
      • Chapitre 7 • Equations différentielles345
      • 1. Ce que Maple sait déjà345
      • 1.1 Quelques équations linéaires345
      • 1.2 Quelques équations non linéaires347
      • 1.3 Options de dsolve350
      • 1.4 Le package DEtools353
      • 2. La méthode d'Euler et ses améliorations357
      • 2.1 Méthode d'Euler357
      • 2.2 Euler amélioré (1)364
      • 2.3 Euler amélioré (2)367
      • 2.4 Méthode d'Euler-Cauchy370
      • 3. Méthodes de Runge-Kutta373
      • 3.1 Présentation générale373
      • 3.2 Méthodes d'ordre 2374
      • 3.3 Méthode de Runge-Kutta d'ordre 4376
      • 3.4 Méthode de Runge-Kutta améliorée380
      • 3.5 Méthode de Runge-Kutta avec adaptation du pas383
      • 4. Méthodes à pas liés387
      • 4.1 Méthodes d'Adams-Bashforth388
      • 4.2 Méthodes d'Adams-Moulton391
      • 5. Systèmes différentiels394
      • 5.1 Adapter les notations394
      • 5.2 Utilisation de la méthode RK4395
      • 5.3 Exemples de courbes intégrales395
      • 6. Equations différentielles d'ordre supérieur à 1397
      • 6.1 Adapter les notations397
      • 6.2 Exemples399
      • 6.3 Réutilisation de la méthode RK4400
      • 6.4 Tracé de courbes intégrales401
      • 6.5 Tester la précision des méthodes utilisées402
      • Chapitre 8 • Séries405
      • 1. La fonction Zeta de Riemann405
      • 1.1 Définition et premières propriétés405
      • 1.2 Calcul approché de Zêta(3) (méthode simplette)409
      • 1.3 Zêta(3) par la formule d'Euler-MacLaurin411
      • 1.4 Zêta(3) par la méthode de Stirling415
      • 1.5 Un calcul approché de Zêta(x), pour tout x > 1417
      • 2. Séries de Fourier421
      • 2.1 Coefficients et polynômes de Fourier422
      • 2.2 Le phénomène de Gibbs427
      • 2.3 Egalité de Parseval430
      • 3. Accélérations de convergence433
      • 3.1 Méthode du Delta2 d'Aitken434
      • 3.2 Transformation d'Euler (séries alternées)445
      • 3.3 Transformation de Van Wijngaarden459
      • Index463

  • Origine de la notice:
    • BN
  • Disponible - 518.5 FER

    Niveau 2 - Sciences