domicile - Sols
Analyse unidirectionnelle de la variance. Analyse multivariée de la variance Article sur l'analyse de la variance

ANOVA d'après les travaux du célèbre mathématicien R.A. Fisher... Malgré un "âge" assez solide, cette méthode reste l'une des principales de la recherche biologique et agricole. Les idées qui sous-tendent l'analyse de la variance sont largement utilisées dans de nombreuses autres méthodes d'analyse mathématique des données expérimentales, ainsi que dans la planification d'expériences biologiques et agricoles.

L'analyse de variance vous permet de :

1) comparer deux ou plusieurs moyennes d'échantillons ;

2) étudier simultanément l'action de plusieurs facteurs indépendants, alors qu'il est possible de déterminer à la fois l'effet de chaque facteur dans la variabilité du trait étudié, et leur interaction ;

3) planifier correctement une expérience scientifique.

La variabilité des organismes vivants se manifeste sous la forme d'une dispersion ou d'une dispersion des valeurs des traits individuels dans les limites déterminées par le degré d'uniformité biologique du matériau et la nature de la relation avec les conditions environnementales. Les signes qui changent sous l'influence de certaines raisons sont appelés efficace.

Les facteurs sont des influences ou des conditions dont la diversité peut affecter d'une manière ou d'une autre la diversité du trait effectif. L'influence statistique des facteurs en analyse de variance s'entend comme le reflet dans la diversité de l'indicateur effectif de la diversité des facteurs étudiés, qui s'organise dans l'étude.

Par diversité, nous entendons la présence de valeurs inégales de chaque trait chez différents individus combinés en un groupe. La diversité d'un groupe d'individus selon le trait étudié peut avoir un degré différent, qui se mesure généralement par des indicateurs de diversité (ou variabilité) : limites, écart-type, coefficient de variation. En analyse de variance, le degré de diversité des valeurs individuelles et moyennes d'un trait est mesuré et comparé de manières particulières qui constituent les spécificités de cette méthode générale.

L'organisation des facteurs fait que plusieurs valeurs sont attribuées à chaque facteur étudié. En fonction de ces valeurs, chaque facteur est divisé en plusieurs gradations ; pour chaque gradation, plusieurs individus sont sélectionnés selon le principe de l'échantillonnage aléatoire, dans lequel la valeur du trait effectif est ensuite mesurée.

Afin de connaître le degré et la fiabilité de l'influence des facteurs étudiés, il est nécessaire de mesurer et d'évaluer la partie de la diversité totale qui est causée par ces facteurs.

Les facteurs affectant le degré de variation du caractère effectif sont divisés en :

1) réglable

2) aléatoire

Réglementé (systématique) les facteurs sont causés par l'action du facteur étudié dans l'expérience, qui a plusieurs gradations dans l'expérience. Gradation des facteurs- c'est le degré de son impact sur la caractéristique effective. Conformément à la gradation de l'attribut, plusieurs variantes de l'expérience sont mises en évidence pour comparaison. Étant donné que ces facteurs sont préconditionnés, ils sont appelés régulés dans la recherche, c'est-à-dire en fonction de l'organisation de l'expérience. Par conséquent, les facteurs ajustables sont des facteurs dont l'action est étudiée dans l'expérience, ce sont eux qui déterminent les différences entre les moyennes d'échantillons des différentes options - variance intergroupe (factorielle).

Facteurs aléatoires sont déterminés par la variation naturelle de tous les signes des objets biologiques dans la nature. Ce sont des facteurs qui échappent au contrôle de l'expérience. Ils ont un effet aléatoire sur le trait effectif, provoquent des erreurs expérimentales et déterminent la dispersion (dispersion) du trait au sein de chaque variante. Cette propagation s'appelle variance intragroupe (aléatoire).

Ainsi, le rôle relatif des facteurs individuels dans la variabilité globale du caractère effectif est caractérisé par la variance et peut être étudié en utilisant analyse de variance ou analyse de diffusion

L'ANOVA est basée sur comparaison des variances inter-groupes et intra-groupes... Si la variance intergroupe ne dépasse pas la variance intragroupe, alors les différences entre les groupes sont aléatoires. Si la variance intergroupe est significativement plus élevée que la variance intragroupe, alors entre les groupes étudiés (options), il existe des différences statistiquement significatives dues à l'effet du facteur étudié dans l'expérience.

Il en résulte que dans l'étude statistique du trait effectif par analyse de variance, il est nécessaire de déterminer sa variation en variantes, répétitions, variation résiduelle au sein de ces groupes et la variation générale du trait effectif dans l'expérience. Conformément à cela, on distingue trois types de dispersions:

1) La variance générale du trait effectif (S y 2);

2) Intergroupe, ou privé, entre échantillons (S y 2);

3) Intragroupe, résiduel (S z 2).

D'où, analyse de la varianceIl s'agit de la division de la somme totale des carrés des écarts et du nombre total de degrés de liberté en parties ou composantes correspondant à la structure de l'expérience, et l'évaluation de l'importance de l'action et de l'interaction des facteurs à l'étude selon le critère F. Selon le nombre de facteurs étudiés simultanément, on distingue une analyse de variance à deux, trois, quatre facteurs.

Lors du traitement de complexes statistiques à un facteur de champ constitués de plusieurs options indépendantes, la variabilité totale du caractère effectif, mesurée par la somme totale des carrés (C y), est divisée en trois composantes : la variation entre les options (échantillons) - CV , la variation des répétitions (les options sont liées entre elles par une condition contrôlée commune - la présence de répétitions organisées) - C p et la variation au sein des options C z. Sous sa forme générale, la variabilité d'un trait est représentée par l'expression suivante :

C y = C V + C p + C z.

Le nombre total de degrés de liberté (N -1) est également divisé en trois parties :

degrés de liberté pour les options (l - 1);

degrés de liberté pour les répétitions (n ​​- 1);

variation aléatoire (n - 1) × (l - 1).

Les sommes des carrés des écarts, selon une expérience de terrain - un complexe statistique avec options - l et répétitions - n, se trouvent comme suit. Tout d'abord, en utilisant le tableau initial, les sommes pour les répétitions sont déterminées - P, pour les variantes - Σ V et la somme totale de toutes les observations - Σ X.

Ensuite, les indicateurs suivants sont calculés :

Le nombre total d'observations N = l × n ;

Facteur de correction (modification) C cor = (Σ X 1) 2 / N;

La somme totale des carrés Cy = Σ X 1 2 - C cor;

La somme des carrés pour les répétitions C p = Σ P 2 / (l –C cor);

La somme des carrés pour les options C V = Σ V 2 / (n - 1);

La somme des carrés pour l'erreur (reste) C Z = C y - C p - C V.

Les sommes résultantes des carrés C V et C Z sont divisées par les degrés de liberté qui leur correspondent et deux carrés moyens (variances) sont obtenus :

Variantes S v 2 = C V / l - 1;

Erreurs S Z 2 = C Z / (n - 1) × (l - 1).

Évaluation de l'importance des différences entre les moyennes. Les carrés moyens obtenus sont utilisés en analyse de variance pour évaluer la significativité de l'action des facteurs à l'étude en comparant la variance des options (S v 2) avec la variance de l'erreur (SZ 2) selon le critère de Fisher (F = SY 2 / SZ 2). L'unité de comparaison est le carré moyen de la variance aléatoire, qui détermine l'erreur aléatoire de l'expérience.

L'utilisation du test de Fisher permet d'établir la présence ou l'absence de différences significatives entre les moyennes de l'échantillon, mais n'indique pas de différences spécifiques entre les moyennes.

L'hypothèse Ho testée est l'hypothèse que toutes les moyennes d'échantillon sont des estimations d'une moyenne générale et que les différences entre elles sont insignifiantes. Si F fait = S Y 2 / S Z 2 ≤ F théor, alors l'hypothèse nulle n'est pas rejetée. Il n'y a pas de différences significatives entre les moyennes de l'échantillon, et c'est là que le test se termine. L'hypothèse nulle est rejetée pour F fait = S Y 2 / S Z 2 ≥ F théor La valeur du critère F pour le niveau de significativité retenu dans l'étude se trouve dans le tableau correspondant, en tenant compte des degrés de liberté pour la variance des variants et la variance aléatoire. Habituellement, ils utilisent un niveau de signification de 5%, et avec une approche plus rigoureuse, 1% - et même 0,1%.

Pour un échantillon de taille n, la variance de l'échantillon est calculée comme la somme des carrés des écarts par rapport à la moyenne de l'échantillon, divisée par n-1(taille de l'échantillon moins un). Ainsi, pour une taille d'échantillon fixe n, la variance est une fonction de la somme des carrés (écarts), notée, par souci de concision, SS (de l'anglais Sum of Squares - Somme des carrés). De plus, nous omettons souvent le mot échantillon, sachant très bien que la variance de l'échantillon ou l'estimation de la variance est considérée. L'analyse de la variance est basée sur la division de la variance en parties ou composants. :

erreurs SS et SS effet. Variabilité intragroupe ( SS) est généralement appelé la composante résiduelle ou la variance les erreurs. Cela signifie que généralement, dans une expérience, cela ne peut pas être prédit ou expliqué. D'un autre côté, effet SS(ou la composante de la variance entre les groupes) peut s'expliquer par la différence entre les moyennes des groupes. En d'autres termes, appartenir à un certain groupe explique variabilité intergroupe, car nous savons que ces groupes ont des valeurs moyennes différentes.

Logique de base de l'analyse de la variance. En résumé, on peut dire que le but de l'ANOVA est de tester la signification statistique de la différence entre les moyennes (pour les groupes ou les variables). Ce contrôle est effectué en divisant la somme des carrés en composantes, c'est-à-dire en divisant la variance totale (variation) en parties, dont l'une est due à une erreur aléatoire (c'est-à-dire la variabilité intragroupe), et la seconde est associée à la différence des valeurs moyennes. La dernière composante de la variance est ensuite utilisée pour analyser la signification statistique de la différence entre les moyennes. Si c'est la différence de manière significative, hypothèse nulle rejeté et une hypothèse alternative sur l'existence d'une différence entre les moyennes est acceptée.

Variables dépendantes et indépendantes. Les variables dont les valeurs sont déterminées par des mesures au cours de l'expérience (par exemple, le score obtenu lors des tests) sont appelées dépendant variables. Les variables qui peuvent être contrôlées dans l'expérience (par exemple, les méthodes d'enseignement ou d'autres critères qui vous permettent de diviser les observations en groupes ou de les classer) sont appelées les facteurs ou indépendant variables.

Beaucoup de facteurs. Le monde est intrinsèquement complexe et multidimensionnel. Les situations où un certain phénomène est entièrement décrit par une variable sont extrêmement rares. Par exemple, si nous essayons d'apprendre à faire pousser de grosses tomates, des facteurs liés à la structure génétique de la plante, au type de sol, à la lumière, à la température, etc. doivent être pris en compte. Ainsi, il y a de nombreux facteurs à traiter dans une expérience typique. La principale raison pour laquelle l'utilisation de l'analyse de la variance est préférable à la comparaison répétée de deux échantillons à différents niveaux de facteurs en utilisant des séries t- critère est que l'analyse de variance est significativement plus efficace et, pour les petits échantillons, c'est plus informatif.

Sortir. L'analyse de la variance a été développée et introduite dans la pratique de la recherche agricole et biologique par le scientifique anglais R.A.Fisher . L'essence de l'analyse de la variance consiste en la décomposition de la variabilité totale de la caractéristique et du nombre total de degrés de liberté en parties constitutives correspondant à la structure de l'expérience sur le terrain, ainsi qu'en l'évaluation du facteur agissant selon le critère de Fisher.

Où est la variabilité générale du trait, due à l'action de la question à l'étude, l'hétérogénéité de la fertilité du sol et les erreurs aléatoires dans l'expérience.

Rendements variables en fonction des répétitions de l'expérience sur le terrain.

Variation des rendements selon les variantes d'expérience associées à l'action de la question à l'étude.

Variations des rendements associées à des erreurs aléatoires dans l'expérience.

Sortir l'analyse de la variance se fait selon les règles suivantes :

1. Il existe des différences significatives dans l'expérience si factuel Fthéorique. Il n'y a pas de différences significatives dans l'expérience si F est la valeur réelle

2. NDS - La plus petite différence significative, utilisée pour déterminer la différence entre les options. Si la différence d NSR, alors les différences entre les options sont significatives. Si d< НСР, то различия между вариантами не существенные.

Groupes option.

1. Si la différence d est significative et indique une augmentation du rendement, alors les options se réfèrent au groupe 1.

2. Si la différence d– n'est pas significative, alors les options se réfèrent au groupe 2.

3. Si la différence d est significative, mais indique une diminution du rendement, alors les options se réfèrent au groupe 3.

Choisir une formule L'ANOVA dépend des méthodes de placement des options dans l'expérience :

1. Pour les représentants organisés :

2. Pour les répétitions non organisées.

5.1. Qu'est-ce que l'ANOVA ?

L'analyse de la variance a été développée dans les années 1920 par le mathématicien et généticien anglais Ronald Fisher. Selon une enquête auprès de scientifiques, où il a été découvert qui a le plus influencé la biologie du 20e siècle, c'est Sir Fisher qui a remporté le championnat (pour ses services, il a reçu le titre de chevalier - l'une des plus hautes distinctions de Grande-Bretagne) ; à cet égard, Fischer est comparable à Charles Darwin, qui a eu la plus grande influence sur la biologie au 19ème siècle.

L'analyse de la variance est désormais une branche distincte de la statistique. Elle repose sur le fait découvert par Fisher que la mesure de variabilité de la grandeur étudiée peut être décomposée en parties correspondant aux facteurs influençant cette grandeur et aux écarts aléatoires.

Pour comprendre l'essence de l'analyse de variance, nous effectuerons deux fois le même type de calculs : « manuellement » (avec une calculatrice) et à l'aide du programme Statistica. Pour simplifier notre tâche, nous ne travaillerons pas avec les résultats d'une description réelle de la diversité des grenouilles vertes, mais avec un exemple fictif qui se rapporte à la comparaison des femmes et des hommes chez l'homme. Considérez la diversité de taille de 12 adultes : 7 femmes et 5 hommes.

Tableau 5.1.1. Exemple d'ANOVA à un facteur : données de sexe et de taille pour 12 personnes

Réalisons une analyse de variance à sens unique : nous allons comparer si les hommes et les femmes du groupe décrit diffèrent en termes de taille statistiquement significatifs ou non.

5.2. Test de normalité

Un raisonnement supplémentaire est basé sur le fait que la distribution dans l'échantillon considéré est normale ou proche de la normale. Si la distribution est loin d'être normale, la variance (variance) n'est pas une mesure adéquate de sa variabilité. Cependant, l'ANOVA est relativement robuste aux écarts de distribution par rapport à la normalité.

Ces données peuvent être testées pour la normalité de deux manières différentes. Premièrement : Statistiques / Statistiques de base / Tableaux / Statistiques descriptives / Onglet Normalité. Dans l'onglet Normalité vous pouvez choisir les tests utilisés pour la normalité de la distribution. Lorsque vous cliquez sur le bouton Tableaux de fréquences, un tableau de fréquences apparaît et les boutons Histogrammes - un histogramme. Le tableau et le graphique à barres montreront les résultats de divers tests.

La deuxième méthode est liée à l'utilisation du possible approprié lors de la construction d'histogrammes. Dans la boîte de dialogue de construction d'histogrammes (Grafs / Histogrammes...), sélectionnez l'onglet Avancé. En bas, il y a un bloc Statistiques. Marquons Shapiro-Wilk dessus t est et test de Kolmogorov-Smirnov, comme le montre la figure.

Riz. 5.2.1. Tests statistiques de normalité de la distribution dans la boîte de dialogue de construction d'histogrammes

Comme on peut le voir sur l'histogramme, la distribution de la croissance dans notre échantillon diffère de la normale (au milieu - "échec").


Riz. 5.2.2. Histogramme tracé avec les paramètres spécifiés dans la figure précédente

La troisième ligne de l'en-tête du graphique indique les paramètres de la distribution normale dont la distribution observée s'est avérée la plus proche. La moyenne générale est de 173 et l'écart type général est de 10,4. Ci-dessous, dans la barre latérale du graphique, se trouvent les résultats des tests de normalité. D est le test de Kolmogorov-Smirnov et SW-W est le test de Shapiro-Vilk. Comme on peut le voir, pour tous les tests utilisés, les différences entre la distribution des hauteurs et la distribution normale se sont révélées statistiquement non significatives ( p dans tous les cas plus de 0,05).

Ainsi, formellement parlant, les tests de conformité d'une distribution à une distribution normale ne nous « interdisaient » pas d'utiliser une méthode paramétrique basée sur l'hypothèse d'une distribution normale. Comme déjà mentionné, l'analyse de la variance est relativement résistante aux écarts par rapport à la normalité, nous l'utiliserons donc toujours.

5.3. ANOVA à un facteur : calculs manuels

Pour caractériser la variabilité de la taille des personnes dans l'exemple donné, nous calculons la somme des carrés des écarts (en anglais, il est noté SS , Somme des carrés ou) valeurs individuelles de la moyenne : ... La taille moyenne dans cet exemple est de 173 centimètres. Basé sur ceci,

SS = (186–173) 2 + (169–173) 2 + (166–173) 2 + (188–173) 2 + (172–173) 2 + (179–173) 2 + (165–173) 2 + (174–173) 2 + (163–173) 2 + (162–173) 2 + (162–173) 2 + (190–173) 2 ;

SS = 132 + 42 + 72 + 152 + 12 + 62 + 82 + 12 + 102 + 112 + 112 + 172;

SS = 169 + 16 + 49 + 225 + 1 + 36 + 64 + 1 + 100 + 121 + 121 + 289 = 1192.

La valeur résultante (1192) est une mesure de la variabilité de l'ensemble des données. Cependant, ils se composent de deux groupes, pour chacun desquels on peut distinguer sa propre moyenne. Dans les données ci-dessus, la taille moyenne des femmes est de 168 cm et celle des hommes de 180 cm.

Calculons la somme des carrés des écarts pour les femmes :

SS f = (169–168) 2 + (166–168) 2 + (172–168) 2 + (179–168) 2 + (163–168) 2 + (162–168) 2 ;

SS f = 12 + 22 + 42 + 112 + 32 + 52 + 62 = 1 + 4 + 16 + 121 + 9 + 25 + 36 = 212.

On calcule aussi la somme des carrés des écarts pour les hommes :

SS m = (186–180) 2 + (188–180) 2 + (174–180) 2 + (162–180) 2 + (190–180) 2 ;

SS m = 62 + 82 + 62 + 182 + 102 = 36 + 64 + 36 + 324 + 100 = 560.

De quoi dépend la valeur étudiée conformément à la logique d'analyse de la variance ?

Deux valeurs calculées, SS f et SS m , caractérisent la variance intragroupe, qui dans l'analyse de la variance est généralement appelée "l'erreur". L'origine de ce nom est associée à la logique suivante.

Qu'est-ce qui détermine la croissance d'une personne dans cet exemple ? Tout d'abord, de la taille moyenne des personnes en général, quel que soit leur sexe. Deuxièmement - du sol. Si les personnes d'un sexe (homme) sont plus grandes que l'autre (femme), cela peut être représenté comme un ajout à la moyenne «humaine commune» d'une certaine taille, l'effet du sexe. Enfin, les personnes du même sexe diffèrent en taille en raison de différences individuelles. Dans un modèle qui décrit la taille comme la somme de la moyenne humaine et de l'ajustement selon le sexe, les différences individuelles sont inexplicables et peuvent être considérées comme une « erreur ».

Ainsi, conformément à la logique d'analyse de variance, la valeur étudiée est déterminée comme suit : , où x ij - i-ième valeur de la valeur étudiée à la j-ième valeur du facteur étudié ; - moyenne générale; Fj - l'influence de la j-ième valeur du facteur étudié ; - "l'erreur", la contribution de l'individualité de l'objet auquel appartient la quantitéx ij .

Somme des carrés intergroupe

Donc, SS erreurs = SSf + SSm = 212 + 560 = 772. Avec cette valeur, nous avons décrit la variabilité intragroupe (lorsque les groupes ont été identifiés par sexe). Mais il y a aussi une deuxième partie de la variabilité - intergroupe, que nous appelleronseffet SS (puisque nous parlons de l'effet de la division de l'ensemble des objets considérés en femmes et en hommes).

La moyenne de chaque groupe est différente de la moyenne globale. En calculant la contribution de cette différence à la mesure totale de la variabilité, nous devons multiplier la différence entre le groupe et la moyenne totale par le nombre d'objets dans chaque groupe.

effet SS = = 7 × (168–173) 2 + 5 × (180–173) 2 = 7 × 52 + 5 × 72 = 7 × 25 + 5 × 49 = 175 + 245 = 420.

Ici se manifeste le principe de la constance de la somme des carrés, découvert par Fischer : SS = effet SS + erreur SS , c'est à dire. pour cet exemple, 1192 = 440 + 722.

Carrés du milieu

En comparant dans notre exemple les sommes des carrés intergroupes et intragroupes, nous pouvons voir que le premier est associé à la variation de deux groupes, et le second - 12 valeurs en 2 groupes. Le nombre de degrés de liberté ( df ) pour certains paramètres peut être défini comme la différence entre le nombre d'objets dans le groupe et le nombre de dépendances (équations) qui relient ces valeurs.

Dans notre exemple effet df = 2–1 = 1, une erreurs df = 12–2 = 10.

Nous pouvons diviser les sommes des carrés par le nombre de leurs degrés de liberté, en obtenant les carrés moyens ( MME , moyennes des carrés). Ceci fait, nous pouvons établir que MME - rien d'autre que la variance ("variance", résultat de la division de la somme des carrés par le nombre de degrés de liberté). Après cette découverte, nous pouvons comprendre la structure de la table ANOVA. Pour notre exemple, cela ressemblera à ceci.

l'effet

Erreur

effet MS et Erreurs MS sont des estimations de la variance intergroupe et intragroupe, et, par conséquent, elles peuvent être comparées par le critèreF (critère de Snedecor, du nom de Fisher), conçu pour comparer les variances. Ce critère est simplement le quotient de la division de la plus grande variance par la plus petite. Dans notre cas, c'est 420 / 77,2 = 5,440.

Détermination de la signification statistique du test de Fisher à l'aide de tableaux

Si nous devions déterminer la signification statistique de l'effet manuellement, à l'aide de tableaux, nous aurions besoin de comparer la valeur obtenue du critère F avec critique, correspondant à un certain niveau de signification statistique pour des degrés de liberté donnés.


Riz. 5.3.1. Fragment du tableau avec les valeurs critiques du critère F

Comme vous pouvez le voir, pour le niveau de significativité statistique p = 0,05, la valeur critique du critèreF est de 4,96. Cela signifie que dans notre exemple, l'action du sexe étudié a été enregistrée avec un niveau de signification statistique de 0,05.

Le résultat peut être interprété comme suit. La probabilité de l'hypothèse nulle, selon laquelle la taille moyenne des femmes et des hommes est la même, et la différence enregistrée dans leur taille est associée à un caractère aléatoire dans la formation des échantillons, est inférieure à 5%. Cela signifie que nous devons choisir une hypothèse alternative selon laquelle la taille moyenne des femmes et des hommes est différente.

5.4. Analyse unidirectionnelle de la variance ( ANOVA) dans le package Statistica

Dans les cas où les calculs ne sont pas effectués manuellement, mais à l'aide de programmes appropriés (par exemple, le progiciel Statistica), la valeur p est déterminé automatiquement. Vous pouvez vous assurer qu'elle est légèrement supérieure à la valeur critique.

Pour analyser l'exemple discuté en utilisant la variante la plus simple de l'analyse de la variance, vous devez exécuter la procédure Statistiques / ANOVA pour le fichier avec les données correspondantes et sélectionner l'option ANOVA à sens unique dans la fenêtre Type d'analyse et la boîte de dialogue Spécifications rapides option dans la fenêtre Méthode de spécification ...


Riz. 5.4.1. Dialogue général ANOVA / MANOVA

Dans la fenêtre de dialogue rapide ouverte, dans le champ Variables, vous devez spécifier les colonnes qui contiennent les données dont nous étudions la variabilité (Liste des variables dépendantes ; dans notre cas, la colonne Croissance), ainsi que la colonne contenant les valeurs qui divisent la valeur étudiée en groupes (Prédicteur catégorique (facteur); dans notre cas, la colonne Sexe). Dans cette version de l'analyse, contrairement à l'analyse multivariée, un seul facteur peut être pris en compte.


Riz. 5.4.2. Dialogue ANOVA à sens unique

Dans la fenêtre Codes facteurs, vous devez spécifier les valeurs du facteur considéré qui doivent être traitées au cours de cette analyse. Toutes les valeurs disponibles peuvent être visualisées à l'aide du bouton Zoom ; si, comme dans notre exemple, vous devez considérer toutes les valeurs du facteur (et pour le sexe dans notre exemple il n'y en a que deux), vous pouvez cliquer sur le bouton Tout. Lorsque les colonnes à traiter et les codes facteurs sont définis, vous pouvez cliquer sur le bouton OK et accéder à l'analyse rapide des résultats : Résultats ANOVA 1, dans l'onglet Rapide.

Riz. 5.4.3. L'onglet rapide de la fenêtre des résultats de l'ANOVA

Le bouton Tous les effets / Graphiques vous permet de voir comment les moyennes des deux groupes se comparent. Au-dessus du graphique, le nombre de degrés de liberté est indiqué, ainsi que les valeurs de F et p pour le facteur considéré.


Riz. 5.4.4. Tracer les résultats de l'ANOVA

Le bouton Tous les effets vous permet d'obtenir une table d'ANOVA similaire à celle décrite ci-dessus (avec quelques différences significatives).


Riz. 5.4.5. Tableau ANOVA (comparer avec un tableau similaire obtenu à la main)

La ligne inférieure du tableau montre la somme des carrés, le nombre de degrés de liberté et les carrés moyens de l'erreur (variabilité intragroupe). Une ligne au-dessus - indicateurs similaires pour le facteur à l'étude (dans ce cas, le signe Sexe), ainsi que le critère F (le rapport des carrés moyens de l'effet aux carrés moyens de l'erreur), et le niveau de sa signification statistique. Le fait que l'effet du facteur en question s'est avéré statistiquement significatif est indiqué en surligné en rouge.

La première ligne contient des données sur l'indicateur "Interception". Cette la ligne du tableau présente un mystère pour les nouveaux utilisateurs de Statistica dans sa 6e version ou une version ultérieure. La valeur d'interception est probablement liée à la décomposition de la somme des carrés de toutes les valeurs de données (c'est-à-dire 1862 + 1692 ... = 360340). La valeur du critère F qui lui est indiquée est obtenue en divisant MS Interception / MS Erreur = 353220 / 77,2 = 4575.389 et donne naturellement une valeur très faible p ... Fait intéressant, dans Statistica-5, cette valeur n'a pas été calculée du tout, et les manuels d'utilisation des versions ultérieures du progiciel ne commentent en aucune façon son introduction. La meilleure chose qu'un biologiste travaillant avec Statistica-6 et les versions ultérieures puisse faire est probablement d'ignorer simplement la ligne Intercept dans le tableau ANOVA.

5.5. ANOVA et tests de Student et Fisher : quel est le meilleur ?

Comme vous l'avez peut-être remarqué, les données que nous avons comparées à l'aide d'une analyse de variance à un facteur, nous pourrions également les étudier à l'aide des tests de Student et de Fisher. Comparons ces deux méthodes. Pour ce faire, calculez la différence de taille entre les hommes et les femmes à l'aide de ces critères. Pour ce faire, nous devrons emprunter le chemin Statistiques/Statistiques de base/test t, indépendant, par groupes. Naturellement, la variable Dépendante est la variable Croissance et la variable Groupement est la variable Sexe.


Riz. 5.5.1. Comparaison des données traitées par ANOVA selon les tests de Student et Fisher

Comme vous pouvez le voir, le résultat est le même qu'avec l'ANOVA. p = 0,041874 dans les deux cas, comme le montre la Fig. 5 et illustré à la Fig. 5.5.2 (voyez par vous-même !).


Riz. 5.5.2. Résultats de l'analyse (explication détaillée du tableau des résultats - dans le paragraphe sur le critère de l'étudiant)

Il est important de souligner que bien que le critère F d'un point de vue mathématique dans l'analyse analysée selon les critères de Student et Fisher soit le même que dans l'ANOVA (et exprime le rapport de variance), sa signification dans les résultats d'analyse présentés dans le la table finale est complètement différente. Lors de la comparaison selon les critères de Student et de Fisher, la comparaison des valeurs moyennes des échantillons est effectuée selon le critère de Student, et la comparaison de leur variabilité est effectuée selon le critère de Fisher. Dans les résultats de l'analyse, ce n'est pas la variance elle-même qui est affichée, mais sa racine carrée - l'écart type.

Dans l'ANOVA, en revanche, le test de Fisher est utilisé pour comparer les moyennes de différents échantillons (comme nous l'avons vu, cela se fait en divisant la somme des carrés en parties et en comparant la somme moyenne des carrés correspondant à la variabilité inter- et intra-groupe) .

Cependant, la différence ci-dessus concerne la présentation des résultats d'une étude statistique plutôt que son essence. Comme le souligne par exemple Glantz (1999, p. 99), la comparaison de groupes par le test de Student peut être considérée comme un cas particulier d'analyse de variance pour deux échantillons.

Ainsi, la comparaison d'échantillons selon les tests de Student et de Fisher présente un avantage important par rapport à l'analyse de variance : elle permet de comparer des échantillons en termes de variabilité. Mais les bénéfices de l'analyse de variance sont encore plus importants. Ceux-ci incluent, par exemple, la possibilité de comparer plusieurs échantillons en même temps.

Le schéma d'analyse de la variance considéré est différencié en fonction : a) de la nature de la caractéristique par laquelle la population est subdivisée en groupes (échantillons ;) ; b) du nombre de caractéristiques par lesquelles la population est subdivisée en groupes (échantillons ); c) sur la méthode d'échantillonnage.

Valeurs caractéristiques. qui subdivise la population en groupes peut représenter la population générale ou une population proche. Dans ce cas, le schéma ANOVA correspond à celui discuté ci-dessus. Si les valeurs d'une caractéristique qui forment différents groupes représentent un échantillon de la population générale, alors la formulation des hypothèses zéro et alternatives change. En tant qu'hypothèse nulle, on suppose qu'il existe des différences entre les groupes, c'est-à-dire que les moyennes des groupes montrent une certaine variation. Comme hypothèse alternative, il est suggéré qu'il n'y a pas d'oscillation. Évidemment, avec une telle formulation d'hypothèses, il n'y a aucune raison de concrétiser les résultats de la comparaison des variances.

Avec une augmentation du nombre de caractéristiques de regroupement, par exemple, jusqu'à 2, d'une part, le nombre d'hypothèses zéro et, par conséquent, alternatives augmente. Dans ce cas, la première hypothèse nulle parle de l'absence de différences entre les moyennes pour les groupes du premier trait de groupement, la deuxième hypothèse nulle parle de l'absence de différences dans les moyennes pour les groupes du deuxième trait de groupement, et enfin la troisième hypothèse nulle indique l'absence de l'effet dit d'interaction des facteurs (caractéristiques de groupement).

L'effet d'interaction est compris comme une modification de la valeur d'un attribut effectif qui ne peut être expliquée par l'action totale de deux facteurs. Pour tester les trois couples d'hypothèses avancés, il faut calculer trois valeurs réelles du critère F-Fisher, ce qui suggère à son tour la variante suivante de décomposition du volume total de variation

Les dispersions nécessaires pour obtenir le critère F sont obtenues de manière connue en divisant les volumes de variation par le nombre de degrés de liberté.

Comme vous le savez, les échantillons peuvent être dépendants et indépendants. Si les échantillons sont dépendants, alors dans la quantité totale de variation, il faut distinguer ce que l'on appelle la variation par répétitions.
... Si elle n'est pas mise en évidence, alors cette variation peut augmenter significativement la variation intragroupe (
), ce qui peut fausser les résultats de l'analyse de la variance.

Revoir les questions

17-1.Quelle est la spécification des résultats d'analyse de variance ?

17-2. Quand le critère Q-Tukey est-il utilisé pour la concrétisation ?

17-3.Quelles sont les différences entre le premier, le deuxième et ainsi de suite ?

17-4. Comment trouver la valeur réelle du test Q de Tukey ?

17-5. Quelles hypothèses sont avancées sur chaque différence ?

17-6. De quoi dépend la valeur tabulaire du critère Tukey Q ?

17-7. Quelle est l'hypothèse nulle si les niveaux de l'attribut de regroupement sont un échantillon ?

17 à 8. Comment se décompose le montant total de la variation lorsque les données sont regroupées selon deux critères ?

17-9. Dans quel cas la variation des répétitions est-elle mise en évidence (
) ?

Sommaire

Le mécanisme envisagé de spécification des résultats de l'analyse de variance vous permet de lui donner un aperçu complet. Il convient de prêter attention aux limitations lors de l'utilisation du test Q de Tukey. Le matériel a également décrit les principes de base de la classification des modèles ANOVA. Il faut souligner que ce ne sont que des principes. Une étude détaillée des caractéristiques de chaque modèle nécessite une étude plus approfondie distincte.

Devoirs de test pour le cours magistral

Sur quelles caractéristiques statistiques les hypothèses sont-elles utilisées dans l'analyse de la variance ?

    Par rapport à deux variances

    Par rapport à une moyenne

    Par rapport à quelques moyennes

    Par rapport à un écart

Quel est le contenu de l'hypothèse alternative dans l'analyse de la variance ?

    Les écarts comparés ne sont pas égaux les uns aux autres

    Toutes les moyennes comparées ne sont pas égales.

    Au moins deux moyennes générales ne sont pas égales

    La variance intergroupe est supérieure à la variance intragroupe

Quels sont les niveaux de signification les plus couramment utilisés dans l'analyse de la variance ?

Si la variation intra-groupe est supérieure à la variation inter-groupe, l'ANOVA doit-elle se poursuivre ou s'accorder immédiatement avec H0 ou avec AN ?

1. Devriez-vous continuer avec les écarts requis ?

2. On devrait être d'accord avec H0

3. D'accord avec ON

Si la variance intra-groupe s'avérait égale à la variance inter-groupe, que faudrait-il suivre par l'analyse de la variance ?

    D'accord avec l'hypothèse nulle d'égalité des moyennes générales

    D'accord avec l'hypothèse alternative sur la présence d'au moins une paire de moyennes inégales entre elles

Quel écart doit toujours avoir le numérateur lors du calcul du test de F-Fisher ?

    Intra-groupe uniquement

    Dans tous les cas, l'intergroupe

    Intergroupe, s'il est plus intragroupe

Quelle doit être la valeur réelle du critère F-Fisher ?

    Toujours moins de 1

    Toujours supérieur à 1

    Égal ou supérieur à 1

De quoi dépend la valeur tabulaire du critère F-Fisher ?

1.À partir du niveau de signification accepté

2. A partir du nombre de degrés de liberté de la variation totale

3. A partir du nombre de degrés de liberté de variation intergroupe

4. Sur le nombre de degrés de liberté de variation intragroupe

5. A partir de la valeur de la valeur réelle du critère F-Fisher ?

Une augmentation du nombre d'observations dans chaque groupe avec des variances égales augmente la probabilité d'accepter ……

1 hypothèse nulle

2. Hypothèse alternative

3. N'affecte pas l'acceptation des hypothèses nulles et alternatives

Quel est l'intérêt de préciser les résultats de l'analyse de variance ?

    Clarifier si les calculs d'écart ont été effectués correctement

    Déterminer laquelle des moyennes générales s'est avérée égale

    Clarifier lesquelles des moyennes générales ne sont pas égales les unes aux autres

L'énoncé est-il vrai : « Lors de la spécification des résultats de l'analyse de la variance, toutes les moyennes générales se sont avérées égales »

    Peut avoir raison et tort

    Ce n'est pas vrai, cela peut être dû à des erreurs dans les calculs

Est-il possible, en précisant l'analyse de variance, d'arriver à la conclusion que toutes les moyennes générales ne sont pas égales entre elles ?

1. C'est possible

2. Eventuellement dans des cas exceptionnels

3. C'est impossible en principe.

4. Possible uniquement si vous faites des erreurs dans les calculs

Si l'hypothèse nulle a été acceptée selon le critère de F-Fisher, faut-il préciser l'analyse de variance ?

1.Obligatoire

2. Non requis

3.À la discrétion de l'analyste ANOVA

Dans quel cas le test de Tukey est-il utilisé pour concrétiser les résultats de l'analyse de variance ?

1. Si le nombre d'observations par groupes (échantillons) est le même

2. Si le nombre d'observations par groupes (échantillons) est différent

3. S'il y a des échantillons avec des nombres égaux et inégaux

paresse

Qu'est-ce que NDS lors de la spécification des résultats de l'analyse de la variance basée sur le test de Tukey ?

1.Produire l'erreur moyenne par la valeur réelle du critère

2. Le produit de l'erreur moyenne par la valeur de table du critère

3. Le rapport de chaque différence entre les moyennes de l'échantillon à

erreur moyenne

4. La différence entre les moyennes de l'échantillon

Si l'échantillon est divisé en groupes selon 2 caractéristiques, combien de sources faut-il au moins diviser dans la variation totale de la caractéristique ?

Si les observations par échantillons (groupes) sont dépendantes, en combien de sources la variation totale doit-elle être divisée (attribut de regroupement un) ?

Quelle est la source (cause) de la variation intergroupe?

    Jeu de hasard

    Action combinée du jeu de hasard et de facteur

    Facteur(s) action

    Découvrir après analyse de variance

Quelle est la source (cause) de la variation intragroupe ?

1 jeu de hasard

2.Action combinée du jeu de hasard et de facteur

3. L'action du ou des facteur(s)

4. Il sera découvert après l'analyse de la variance

Quelle méthode de transformation des données sources est utilisée si les valeurs caractéristiques sont exprimées en fractions ?

    Logarithme

    Extraction de la racine

    transformation phi

Conférence 8 Corrélation

annotation

La méthode la plus importante pour étudier la relation entre les signes est la méthode de corrélation. Cette conférence révèle le contenu de cette méthode, les approches de l'expression analytique de cette connexion. Une attention particulière est accordée à des indicateurs spécifiques tels que les indicateurs de l'étanchéité de la communication

Mots clés

Corrélation. Méthode des moindres carrés. Coefficient de régression. Coefficients de détermination et de corrélation.

Problèmes traités

    Relation fonctionnelle et de corrélation

    Étapes de la construction de l'équation de corrélation de la communication. Interprétation des coefficients d'équation

    Indicateurs d'étanchéité

    Évaluation des indicateurs de communication sélectionnés

Unité modulaire 1 L'essence de la corrélation. Étapes de construction de l'équation de corrélation de la communication, interprétation des coefficients de l'équation.

Le but et les objectifs de l'étude d'une unité modulaire 1 consiste à comprendre les caractéristiques de la corrélation. maîtriser l'algorithme de construction de l'équation de communication, comprendre le contenu des coefficients de l'équation.

      L'essence de la corrélation

Dans les phénomènes naturels et sociaux, il existe deux types de connexions - une connexion fonctionnelle et une connexion de corrélation. Dans une connexion fonctionnelle, chaque valeur de l'argument correspond à des valeurs strictement définies (une ou plusieurs) de la fonction. Un exemple de relation fonctionnelle est la relation entre la circonférence et le rayon, qui est exprimée par l'équation
... A chaque valeur du rayon r correspond à une valeur unique pour la circonférence L . En cas de corrélation, chaque valeur de l'attribut facteur correspond à plusieurs valeurs pas tout à fait définies de l'attribut effectif. Des exemples de corrélations sont la relation entre le poids d'une personne (caractère effectif) et sa taille (caractère facteur), la relation entre la quantité d'engrais appliquée et le rendement, entre le prix et la quantité de produit offert. La source de l'émergence d'une corrélation est le fait que, en règle générale, dans la vie réelle, la valeur de l'attribut effectif dépend de nombreux facteurs, y compris ceux qui ont un caractère aléatoire de leur changement. Par exemple, le même poids d'une personne dépend de l'âge, du sexe, de l'alimentation, de la profession et de nombreux autres facteurs. Mais en même temps, il est évident que la croissance est le facteur décisif en général. Compte tenu de ces circonstances, la corrélation doit être définie comme une relation incomplète, qui ne peut être établie et estimée que s'il existe un grand nombre d'observations, en moyenne.

1.2 Étapes de construction de l'équation de corrélation de la communication.

Comme une relation fonctionnelle, une corrélation est exprimée par une équation de relation. Pour le construire, vous devez systématiquement suivre les étapes (étapes) suivantes.

Premièrement, il faut comprendre les relations de cause à effet, découvrir la subordination des signes, c'est-à-dire lesquels d'entre eux sont les raisons (signes facteurs) et lesquels sont la conséquence (signes effectifs). Les relations causales entre les caractéristiques sont établies par la théorie du sujet où la méthode de corrélation est utilisée. Par exemple, la science de "l'anatomie humaine" vous permet de dire quelle est la source de la relation entre le poids et la taille, lequel de ces signes est un facteur, quel résultat, la science de "l'économie" révèle la logique de la relation entre prix et l'offre, établit quelle et à quelle étape est la cause et quel est l'effet ... Sans une telle justification théorique préalable, l'interprétation des résultats obtenus dans le futur est difficile, et peut parfois conduire à des conclusions absurdes.

Après avoir établi la présence de relations de cause à effet, ces relations doivent être formalisées, c'est-à-dire exprimées à l'aide d'une équation de communication, en choisissant d'abord le type d'équation. Un certain nombre de techniques peuvent être recommandées pour choisir le type d'équation. Vous pouvez vous tourner vers la théorie du sujet où la méthode de corrélation est utilisée, par exemple, la science de "l'agrochimie" a peut-être déjà reçu une réponse à la question de savoir quelle équation devrait exprimer la relation: rendement - engrais. S'il n'y a pas de telle réponse, alors pour sélectionner une équation, vous devez utiliser des données empiriques, en les traitant de manière appropriée. Il faut dire d'emblée qu'ayant choisi le type d'équation basé sur des données empiriques, il faut bien comprendre que ce type d'équation peut être utilisé pour décrire la relation des données utilisées. La principale technique de traitement de ces données est la construction de graphiques, lorsque les valeurs de l'attribut facteur sont tracées sur l'axe des abscisses et les valeurs possibles de l'attribut effectif sont tracées sur l'axe des ordonnées. Étant donné que, par définition, la même valeur de l'attribut facteur correspond à un ensemble de valeurs indéfinies de l'attribut effectif, à la suite des actions ci-dessus, nous recevrons un certain ensemble de points, appelé champ de corrélation. La vue générale du champ de corrélation permet dans un certain nombre de cas de faire une hypothèse sur la forme possible de l'équation.. Avec le développement moderne de la technologie informatique, l'une des principales méthodes pour choisir une équation est d'énumérer différents types d'équations , tandis que la meilleure équation est celle qui fournit le coefficient de détermination le plus élevé, la parole qui sera discutée ci-dessous. Avant de procéder aux calculs, il est nécessaire de vérifier dans quelle mesure les données empiriques utilisées pour construire l'équation satisfont à certaines exigences. Les exigences se rapportent aux caractéristiques factorielles et à l'ensemble de données. Les signes factoriels, s'il y en a plusieurs, doivent être indépendants les uns des autres. Quant à la totalité, elle doit être, dans un premier temps, homogène

(le concept d'homogénéité a été considéré plus tôt), et d'autre part, assez large. Chaque trait factoriel doit représenter au moins 8 à 10 observations.

Après avoir choisi une équation, l'étape suivante consiste à calculer les coefficients de l'équation. Les coefficients d'équation sont le plus souvent calculés à l'aide de la méthode des moindres carrés. Du point de vue de la corrélation, l'utilisation de la méthode des moindres carrés consiste à obtenir des coefficients de l'équation tels que
= min, c'est-à-dire que la somme des carrés des écarts des valeurs réelles de l'indicateur effectif ( ) à partir de ceux calculés selon l'équation ( ) était la valeur minimale. Cette exigence est réalisée en construisant et en résolvant un système bien connu d'équations dites normales. Si comme l'équation de la corrélation entre oui et X l'équation de la droite est choisie
, où le système d'équations normales, comme vous le savez, sera le suivant :

Résoudre ce système par rapport à une et b , on obtient les valeurs nécessaires des coefficients. L'exactitude du calcul des coefficients est vérifiée par l'égalité

A quoi sert l'analyse de variance ? Le but de l'analyse de la variance est d'étudier la présence ou l'absence d'un effet significatif de tout facteur qualitatif ou quantitatif sur les changements du caractère effectif étudié. Pour ce faire, un facteur, vraisemblablement ayant ou non une influence significative, est divisé en classes de gradation (c'est-à-dire en groupes) et on détermine si l'influence du facteur est la même en étudiant la significativité entre les moyennes dans le ensembles de données correspondant aux gradations du facteur. Exemples : la dépendance du profit de l'entreprise par rapport au type de matières premières utilisées est étudiée (alors les classes de gradation sont les types de matières premières), la dépendance du coût de production d'une unité de production par rapport à la taille de la division de l'entreprise (alors les classes de gradation sont les caractéristiques de la taille de la division : grande, moyenne, petite).

Le nombre minimum de classes de notation (groupes) est de deux. Les classes de fin d'études peuvent être qualitatives ou quantitatives.

Pourquoi l'analyse de la variance est-elle appelée analyse de la variance ? L'analyse de la variance examine le rapport de deux variances. La variance, on le sait, est une caractéristique de la dispersion des données autour de la moyenne. La première est la variance expliquée par l'influence du facteur, qui caractérise la dispersion des valeurs entre les gradations du facteur (groupes) autour de la moyenne de toutes les données. La seconde est la variance inexpliquée, qui caractérise la dispersion des données au sein des gradations (groupes) autour des moyennes des groupes eux-mêmes. La première variance peut être appelée intergroupe et la seconde, intragroupe. Le rapport de ces variances est appelé le rapport de Fisher réel et est comparé à la valeur critique du rapport de Fisher. Si le rapport de Fisher réel est supérieur au rapport critique, alors les notes moyennes de gradation diffèrent les unes des autres et le facteur à l'étude affecte de manière significative le changement dans les données. S'il est inférieur, les notes moyennes de gradation ne diffèrent pas les unes des autres et le facteur n'a pas d'impact significatif.

Comment les hypothèses sont-elles formulées, acceptées et rejetées dans l'ANOVA ? Dans l'analyse de la variance, le poids spécifique de l'impact total d'un ou plusieurs facteurs est déterminé. La significativité de l'influence du facteur est déterminée en testant les hypothèses :

  • H0 : μ 1 = μ 2 = ... = μ une, où une- nombre de classes de gradation - toutes les classes de gradation ont une valeur moyenne,
  • H1 : Pas tout μ jeégal - toutes les classes de gradation n'ont pas la même valeur moyenne.

Si l'influence d'un facteur n'est pas significative, alors la différence entre les classes de gradation de ce facteur est également insignifiante et au cours de l'analyse de variance l'hypothèse nulle H0 n'est pas rejeté. Si l'influence du facteur est significative, alors l'hypothèse nulle H0 rejeté : toutes les classes de gradation n'ont pas la même moyenne, c'est-à-dire que parmi les différences possibles entre les classes de gradation, une ou plusieurs sont significatives.

Quelques notions supplémentaires d'analyse de variance. Un complexe statistique dans ANOVA est un tableau de données empiriques. Si toutes les classes de gradations ont le même nombre d'options, alors le complexe statistique est appelé homogène (homogène), si le nombre d'options est différent - hétérogène (hétérogène).

Selon le nombre de facteurs évalués, on distingue les analyses de variance unidirectionnelles, bidirectionnelles et multivariées.

Analyse de variance à sens unique : l'essence de la méthode, des formules, des exemples

L'essence de la méthode, les formules

basé sur le fait que la somme des carrés des écarts du complexe statistique peut être divisée en composants :

SS = SS un + SS e,

SS

SSune une somme des carrés des écarts,

SSe- somme des carrés des écarts inexpliquée ou somme des carrés des écarts de l'erreur.

Si à travers mje désigner le nombre d'options dans chaque grade de gradation (groupe) et une est le nombre total de gradations du facteur (groupes), puis est le nombre total d'observations et les formules suivantes peuvent être obtenues :

nombre total de carrés d'écarts : ,

attribué au facteur une somme des carrés des écarts : ,

somme inexpliquée des carrés des écarts ou somme des carrés des écarts d'erreur : ,

- la moyenne totale des observations,

(grouper).

Outre,

où est la variance de la gradation du facteur (groupe).

Pour effectuer une analyse de variance à sens unique pour les données d'un complexe statistique, vous devez trouver le rapport de Fisher réel - le rapport de la variance expliquée par l'influence du facteur (intergroupe) et la variance inexpliquée (intragroupe) :

et la comparer avec la valeur critique de Fisher.

Les écarts sont calculés comme suit :

L'écart expliqué,

Variation inexpliquée

vun = une − 1 - le nombre de degrés de liberté de la variance expliquée,

ve = mune - le nombre de degrés de liberté de variance inexpliquée,

v = m

La valeur critique du ratio de Fisher avec certaines valeurs du seuil de signification et des degrés de liberté peut être trouvée dans des tableaux statistiques ou calculée à l'aide de la fonction MS Excel F OBR (la figure ci-dessous, pour l'augmenter, cliquez dessus avec le bouton gauche bouton de la souris).


La fonction nécessite la saisie des données suivantes :

Probabilité - niveau de signification α ,

Degrés_liberté1 est le nombre de degrés de liberté de la variance expliquée vune,

Degrees_freedom2 est le nombre de degrés de liberté de variance inexpliquée ve.

Si la valeur réelle du ratio de Fisher est supérieure à la valeur critique (), alors l'hypothèse nulle est rejetée avec un niveau de signification α ... Cela signifie que le facteur affecte de manière significative le changement de données et que les données dépendent du facteur avec une probabilité P = 1 − α .

Si la valeur réelle du ratio de Fisher est inférieure à la valeur critique (), alors l'hypothèse nulle ne peut pas être rejetée avec un niveau de signification α ... Cela signifie que le facteur n'affecte pas de manière significative les données avec une probabilité P = 1 − α .

Analyse unidirectionnelle de la variance : exemples

Exemple 1. Il est nécessaire de déterminer si le type de matières premières utilisées affecte le bénéfice de l'entreprise. Dans six classes de gradation (groupes) du facteur (1er type, 2e type, etc.), des données sur le bénéfice de la production de 1000 unités de produits en millions de roubles pendant 4 ans sont collectées.

Type de matière première2014 2015 2016 2017
1er7,21 7,55 7,29 7,6
2e7,89 8,27 7,39 8,18
3e7,25 7,01 7,37 7,53
4e7,75 7,41 7,27 7,42
5e7,7 8,28 8,55 8,6
6e7,56 8,05 8,07 7,84
La moyenne
Dispersion
7,413 0,0367
7,933 0,1571
7,290 0,0480
7,463 0,0414
8,283 0,1706
7,880 0,0563

une= 6 et dans chaque classe (groupe) mje = 4 observation. Nombre total d'observations m = 24 .

Nombre de degrés de liberté :

vun = une − 1 = 6 − 1 = 5 ,

ve = mune = 24 − 6 = 18 ,

v = m − 1 = 24 − 1 = 23 .

Calculons les écarts :

.

.

Puisque l'attitude réelle de Fischer est plus critique :

avec un niveau d'importance α = 0,05, nous concluons que le profit de l'entreprise, selon le type de matières premières utilisées dans la production, diffère de manière significative.

Ou, ce qui est le même, nous rejetons l'hypothèse principale sur l'égalité des moyennes dans toutes les classes de gradation factorielle (groupes).

Dans l'exemple qui vient d'être considéré, chaque classe de note de facteur avait le même nombre d'options. Mais, comme mentionné dans l'introduction, le nombre d'options peut être différent. Et cela ne complique en rien la procédure ANOVA. C'est l'exemple suivant.

Exemple 2. Il est nécessaire de déterminer s'il existe une dépendance du coût de production d'une unité de production par rapport à la taille de la division de l'entreprise. Le facteur (taille de l'unité) est divisé en trois catégories (groupes) : petit, moyen, grand. Données généralisées correspondant à ces groupes sur le coût de production d'une unité du même type de produit pour une certaine période.

petitmoyennegros
48 47 46
50 61 57
63 63 57
72 47 55
43 32
59 59
58
La moyenne58,6 54,0 51,0
Dispersion128,25 65,00 107,60

Le nombre de classes de gradation factorielle (groupes) une= 3, nombre d'observations dans les classes (groupes) m1 = 4 , m2 = 7 , m3 = 6 ... Nombre total d'observations m = 17 .

Nombre de degrés de liberté :

vun = une − 1 = 2 ,

ve = mune = 17 − 3 = 14 ,

v = m − 1 = 16 .

Calculons la somme des carrés des écarts :

Calculons les écarts :

,

.

Calculons le rapport de Fisher réel :

.

Rapport critique de Fischer :

Étant donné que la valeur réelle du ratio de Fisher est inférieure à la valeur critique :, nous concluons que la taille de l'unité d'entreprise n'affecte pas de manière significative le coût de production.

Soit, ce qui est le même, avec une probabilité de 95 %, nous acceptons l'hypothèse principale selon laquelle le coût de production moyen d'une unité du même produit dans les petites, moyennes et grandes divisions d'une entreprise ne diffère pas significativement.

ANOVA à sens unique dans MS Excel

L'analyse unidirectionnelle de la variance peut être effectuée à l'aide de la procédure MS Excel ANOVA à sens unique... Nous l'utilisons pour analyser les données sur la relation entre le type de matières premières utilisées et le bénéfice de l'entreprise de l'exemple 1.

Service / Analyse de données et choisissez un outil d'analyse ANOVA à sens unique.

Dans la fenêtre Intervalle d'entrée nous indiquons la zone de données (dans notre cas, il s'agit de $ A $ 2: $ E $ 7). Nous indiquons comment le facteur est groupé - par colonnes ou par lignes (dans notre cas, par lignes). Si la première colonne contient les noms des classes de facteurs, cochez la case Libellés de la première colonne... Dans la fenêtre Alpha indiquer le niveau de signification α = 0,05 .

Le deuxième tableau - Analyse de la variance - contient des données sur les valeurs du facteur entre les groupes et au sein des groupes et les totaux. Ce sont la somme des écarts au carré (SS), le nombre de degrés de liberté (df), la variance (MS). Les trois dernières colonnes contiennent la valeur réelle du ratio de Fisher (F), le niveau p (valeur P) et la valeur critique du ratio de Fisher (F crit).

MME F Valeur p F critique
0,58585 6,891119 0,000936 2,77285
0,085017

Puisque la valeur réelle du ratio de Fischer (6,89) est supérieure à la valeur critique (2,77), avec une probabilité de 95 %, nous rejetons l'hypothèse nulle sur l'égalité de la productivité moyenne lorsque l'on utilise tous les types de matières premières, c'est-à-dire nous concluons que le type de matières premières utilisées affecte les entreprises à but lucratif.

Analyse de variance bidirectionnelle sans répétitions : l'essence de la méthode, les formules, l'exemple

L'analyse bidirectionnelle de la variance est utilisée pour vérifier la dépendance possible d'un trait efficace sur deux facteurs - UNE et B... Puis une- nombre de gradations factorielles UNE et b- nombre de gradations factorielles B... Dans le complexe statistique, la somme des carrés des résidus est divisée en trois composantes :

SS = SS un + SS b + SS e,

- la somme totale des carrés des écarts,

- expliqué par l'influence d'un facteur UNE somme des carrés des écarts,

- expliqué par l'influence d'un facteur B somme des carrés des écarts,

- la moyenne totale des observations,

Moyenne des observations dans chaque gradation du facteur UNE ,

B .

UNE ,

Dispersion expliquée par l'influence du facteur B ,

vun = une − 1 UNE ,

vb = b − 1 - le nombre de degrés de liberté de la dispersion expliquée par l'influence du facteur B ,

ve = ( une − 1)(b − 1)

v = un B- 1 - le nombre total de degrés de liberté.

Si les facteurs ne dépendent pas les uns des autres, alors deux hypothèses nulles et les hypothèses alternatives correspondantes sont avancées pour déterminer la significativité des facteurs :

pour le facteur UNE :

H0 : μ 1A = μ 2A = ... = μ aA,

H1 : Pas tout μ iA sont égaux;

pour le facteur B :

H0 : μ 1B = μ 2B = ... = μ un B,

H1 : Pas tout μ iB sont égaux.

UNE

Pour déterminer l'influence d'un facteur B, il faut comparer l'attitude réelle de Fischer avec l'attitude critique de Fischer.

α P = 1 − α .

α P = 1 − α .

Analyse de variance à double sens sans répétitions : un exemple

Exemple 3. Des informations sont données sur la consommation moyenne de carburant aux 100 kilomètres en litres, en fonction du volume du moteur et du type de carburant.

Il est nécessaire de vérifier si la consommation de carburant dépend de la taille du moteur et du type de carburant.

Solution. Pour le facteur UNE nombre de classes de notation une= 3, pour le facteur B nombre de classes de notation b = 3 .

On calcule la somme des carrés des écarts :

,

,

,

.

Écarts correspondants :

,

,

.

UNE ... Puisque le rapport de Fischer réel est inférieur au rapport critique, nous acceptons l'hypothèse que la cylindrée du moteur n'affecte pas la consommation de carburant avec une probabilité de 95%. Cependant, si nous choisissons le niveau de signification α = 0,1, puis la valeur réelle du rapport de Fisher et ensuite avec une probabilité de 95% on peut supposer que la cylindrée du moteur affecte la consommation de carburant.

Ratio réel de Fischer pour un facteur B , la valeur critique du rapport de Fisher : ... Puisque le rapport de Fischer réel est supérieur à la valeur critique du rapport de Fisher, nous supposons avec une probabilité de 95 % que le type de carburant affecte sa consommation.

Analyse bidirectionnelle de la variance sans répétitions dans MS Excel

L'analyse bidirectionnelle de la variance sans répétitions peut être effectuée à l'aide de la procédure MS Excel. Nous l'utilisons pour analyser les données sur la relation entre le type de type de carburant et sa consommation de l'exemple 3.

Dans le menu MS Excel, exécutez la commande Service / Analyse de données et choisissez un outil d'analyse Analyse bidirectionnelle de la variance sans répétitions.

Nous remplissons les données de la même manière que dans le cas d'une analyse de variance à un facteur.


À la suite de la procédure, deux tableaux sont affichés. Le premier tableau est Totaux. Il contient des données sur toutes les classes de gradation factorielle : nombre d'observations, valeur totale, valeur moyenne et variance.

Le deuxième tableau - Analyse de la variance - contient des données sur les sources de variation : dispersion entre les lignes, dispersion entre les colonnes, dispersion des erreurs, dispersion totale, somme des écarts au carré (SS), nombre de degrés de liberté (df), variance (MS ). Les trois dernières colonnes contiennent la valeur réelle du ratio de Fisher (F), le niveau p (valeur P) et la valeur critique du ratio de Fisher (F crit).

MME F Valeur p F critique
3,13 5,275281 0,075572 6,94476
8,043333 13,55618 0,016529 6,944276
0,593333

Facteur UNE(cylindrée du moteur) est regroupé en lignes. Étant donné que le rapport Fischer réel de 5,28 est inférieur au rapport critique de 6,94, nous supposons avec une probabilité de 95 % que la consommation de carburant ne dépend pas de la taille du moteur.

Facteur B(type de carburant) est regroupé en colonnes. Le rapport Fischer réel de 13,56 est supérieur au niveau critique de 6,94. Par conséquent, avec une probabilité de 95 %, nous supposons que la consommation de carburant dépend de son type.

Analyse de variance à double sens avec répétitions : l'essence de la méthode, les formules, l'exemple

L'analyse bidirectionnelle de la variance avec répétitions est utilisée afin de vérifier non seulement la dépendance possible du trait effectif sur deux facteurs - UNE et B, mais aussi l'interaction possible de facteurs UNE et B... Puis une- nombre de gradations factorielles UNE et b- nombre de gradations factorielles B, r- le nombre de répétitions. Dans le complexe statistique, la somme des carrés des résidus est divisée en quatre composantes :

SS = SS un + SS b + SS ab + SS e,

- la somme totale des carrés des écarts,

- expliqué par l'influence d'un facteur UNE somme des carrés des écarts,

- expliqué par l'influence d'un facteur B somme des carrés des écarts,

- expliquée par l'influence de l'interaction des facteurs UNE et B somme des carrés des écarts,

- somme inexpliquée des carrés des écarts ou somme des carrés des écarts d'erreur,

- la moyenne totale des observations,

- moyenne des observations dans chaque gradation du facteur UNE ,

- le nombre moyen d'observations dans chaque gradation du facteur B ,

Nombre moyen d'observations dans chaque combinaison de gradations de facteurs UNE et B ,

m = abr- le nombre total d'observations.

Les écarts sont calculés comme suit :

Dispersion expliquée par l'influence du facteur UNE ,

Dispersion expliquée par l'influence du facteur B ,

- variance expliquée par l'interaction des facteurs UNE et B ,

- variance inexpliquée ou variance de l'erreur,

vun = une − 1 - le nombre de degrés de liberté de la dispersion expliquée par l'influence du facteur UNE ,

vb = b − 1 - le nombre de degrés de liberté de la dispersion expliquée par l'influence du facteur B ,

vab = ( une − 1)(b − 1) - le nombre de degrés de liberté de la variance expliquée par l'interaction des facteurs UNE et B ,

ve = un B(r − 1) - le nombre de degrés de liberté de la variance inexpliquée ou de la variance de l'erreur,

v = abr- 1 - le nombre total de degrés de liberté.

Si les facteurs sont indépendants les uns des autres, alors trois hypothèses nulles et les hypothèses alternatives correspondantes sont avancées pour déterminer la signification des facteurs :

pour le facteur UNE :

H0 : μ 1A = μ 2A = ... = μ aA,

H1 : Pas tout μ iA sont égaux;

pour le facteur B :

Déterminer l'influence de l'interaction des facteurs UNE et B, il faut comparer l'attitude réelle de Fischer avec l'attitude critique de Fischer.

Si le rapport de Fisher réel est supérieur au rapport de Fisher critique, alors l'hypothèse nulle doit être rejetée avec un niveau de signification α ... Cela signifie que le facteur affecte de manière significative les données : les données dépendent du facteur avec une probabilité P = 1 − α .

Si le rapport de Fischer réel est inférieur au rapport de Fisher critique, alors l'hypothèse nulle doit être acceptée avec un niveau de signification α ... Cela signifie que le facteur n'affecte pas significativement les données avec une probabilité P = 1 − α .

ANOVA à répétition bidirectionnelle : un exemple

sur l'interaction des facteurs UNE et B: L'attitude réelle de Fischer est moins que critique, par conséquent, l'interaction entre la campagne publicitaire et un magasin en particulier n'est pas essentielle.

Analyse bidirectionnelle de la variance avec répétitions dans MS Excel

L'analyse bidirectionnelle de la variance avec répétitions peut être effectuée à l'aide de la procédure MS Excel. Nous l'utilisons pour analyser les données sur la relation entre les revenus du magasin et le choix d'un magasin particulier et la campagne publicitaire de l'exemple 4.

Dans le menu MS Excel, exécutez la commande Service / Analyse de données et choisissez un outil d'analyse Analyse bidirectionnelle de la variance avec répétitions.

Nous remplissons les données de la même manière que dans le cas de l'ANOVA à deux facteurs sans répétitions, avec en plus que le nombre de répétitions doit être saisi dans le nombre de lignes pour la fenêtre de sélection.

À la suite de la procédure, deux tableaux sont affichés. Le premier tableau se compose de trois parties : les deux premières correspondent à chacune des deux campagnes publicitaires, la troisième contient des données sur les deux campagnes publicitaires. Les colonnes du tableau contiennent des informations sur tous les degrés de gradation du deuxième facteur - le magasin : le nombre d'observations, la valeur totale, la valeur moyenne et la variance.

Le deuxième tableau contient des données sur la somme des écarts au carré (SS), le nombre de degrés de liberté (df), la variance (MS), la valeur réelle du rapport de Fisher (F), le niveau p (valeur P) et la valeur critique du ratio de Fisher (F crit) pour différentes sources de variation : deux facteurs qui sont donnés en lignes (échantillon) et en colonnes, interaction des facteurs, erreurs (intérieur) et indicateurs totaux (total).

MME F Valeur p F critique
8,013339 0,500252 0,492897 4,747221
189,1904 11,81066 0,001462 3,88529
6,925272 0,432327 0,658717 3,88529
16,01861

Pour le facteur B Le ratio réel de Fischer est supérieur au ratio critique, par conséquent, avec une probabilité de 95 %, les revenus diffèrent considérablement d'un magasin à l'autre.

Pour l'interaction des facteurs UNE et B L'attitude réelle de Fischer est inférieure à l'attitude critique, donc, avec une probabilité de 95%, l'interaction entre la campagne publicitaire et un magasin particulier n'est pas significative.

Tous les sujets connexes "Statistiques mathématiques"

ANOVA(du latin Dispersio - dispersion / en anglais Analysis Of Variance - ANOVA) est utilisé pour étudier l'influence d'une ou plusieurs variables qualitatives (facteurs) sur une variable quantitative dépendante (réponse).

L'analyse de la variance repose sur l'hypothèse que certaines variables peuvent être considérées comme des causes (facteurs, variables indépendantes) et d'autres comme des conséquences (variables dépendantes). Les variables indépendantes sont parfois appelées facteurs ajustables précisément parce que dans l'expérience, le chercheur a la possibilité de les faire varier et d'analyser le résultat obtenu.

L'objectif principal analyse de la variance(ANOVA) est une étude de la signification des différences entre les moyennes en comparant (analysant) les variances. En divisant la variance totale en plusieurs sources, il est possible de comparer la variance causée par la différence entre les groupes avec la variance causée par la variabilité intra-groupe. Si l'hypothèse nulle est vraie (à propos de l'égalité des moyennes dans plusieurs groupes d'observations sélectionnées dans la population générale), l'estimation de la variance associée à la variabilité intragroupe doit être proche de l'estimation de la variance intergroupe. Si vous comparez simplement les moyennes de deux échantillons, l'analyse de la variance donnera le même résultat que le test t habituel pour les échantillons indépendants (si deux groupes indépendants d'objets ou d'observations sont comparés) ou le test t pour les échantillons dépendants (si deux groupes indépendants d'objets ou d'observations sont comparés) sont comparées sur le même et le même ensemble d'objets ou d'observations).

L'essence de l'analyse de la variance est de décomposer la variance totale du trait à l'étude en composants individuels, en raison de l'influence de facteurs spécifiques, et de tester des hypothèses sur la signification de l'influence de ces facteurs sur le trait à l'étude. En comparant les composantes de la variance entre elles à l'aide du test F de Fisher, il est possible de déterminer quelle proportion de la variabilité globale du caractère effectif est due à l'action des facteurs régulés.

Le matériau de départ pour l'analyse de la variance est constitué par les données de l'étude de trois échantillons ou plus : qui peuvent être en nombre égal ou inégal, à la fois connectés et incohérents. Par le nombre de facteurs régulés détectés, l'analyse de la variance peut être univarié(dans ce cas, l'influence d'un facteur sur les résultats de l'expérience est étudiée), à deux facteurs(lors de l'étude de l'influence de deux facteurs) et multifactoriel(vous permet d'évaluer non seulement l'influence de chacun des facteurs séparément, mais aussi leur interaction).

L'ANOVA appartient au groupe des méthodes paramétriques et ne doit donc être utilisée que lorsqu'il a été prouvé que la distribution est normale.

L'ANOVA est utilisée lorsque la variable dépendante est mesurée en termes de rapports, d'intervalles ou d'ordre et que les variables d'influence sont de nature non numérique (échelle de nommage).

Exemples de tâches

Dans les problèmes résolus par analyse de variance, il existe une réponse de nature numérique, qui est affectée par plusieurs variables de nature nominale. Par exemple, plusieurs types de régimes d'alimentation du bétail ou deux façons de les garder, etc.

Exemple 1: Plusieurs kiosques de pharmacie ont fonctionné à trois endroits différents au cours de la semaine. À l'avenir, nous ne pourrons en laisser qu'un. Il est nécessaire de déterminer s'il existe une différence statistiquement significative entre les volumes de vente de médicaments en kiosque. Si tel est le cas, nous choisirons le kiosque avec le volume de ventes quotidien moyen le plus élevé. Si la différence dans le volume des ventes s'avère statistiquement insignifiante, d'autres indicateurs devraient alors servir de base au choix d'un kiosque.

Exemple 2 : Comparaison des contrastes des moyennes des groupes. Sept biais politiques sont classés d'extrêmement libéraux à extrêmement conservateurs, et un contraste linéaire est utilisé pour tester s'il existe une tendance non nulle à l'augmentation des moyennes des groupes - c'est-à-dire s'il y a une augmentation linéaire significative de l'âge moyen lorsque l'on examine les groupes classés dans le direction du libéral au conservateur.

Exemple 3 : Analyse bidirectionnelle de la variance. Le nombre de ventes de produits, en plus de la taille du magasin, est souvent influencé par l'emplacement des étagères avec le produit. Cet exemple contient des chiffres de ventes hebdomadaires pour quatre configurations d'étagères et trois tailles de magasins. Les résultats de l'analyse montrent que les deux facteurs - l'emplacement des étagères avec le produit et la taille du magasin - affectent le nombre de ventes, mais leur interaction n'est pas significative.

Exemple 4 : ANOVA à une dimension : conception de blocs complets randomisés avec deux traitements. L'effet de toutes les combinaisons possibles de trois graisses et trois rippers sur le pain est étudié. Quatre échantillons de farine provenant de quatre sources différentes ont servi de facteurs de blocage. L'importance de l'interaction de la perte de graisse doit être déterminée. Après cela, déterminez les différentes possibilités de choix des contrastes, qui permettent de savoir quelles combinaisons de niveaux de facteurs diffèrent.

Exemple 5 : Modèle de plan hiérarchique (emboîté) avec effets mixtes. L'effet de quatre têtes choisies au hasard installées dans une machine sur la déformation des supports de cathode en verre produits est étudié. (Les têtes sont intégrées à la machine afin que la même tête ne puisse pas être utilisée sur différentes machines). L'effet de tête est traité comme un facteur aléatoire. Les statistiques d'ANOVA montrent qu'il n'y a pas de différences significatives entre les machines, mais il y a des indications que les têtes peuvent différer. La différence entre toutes les machines n'est pas significative, mais pour deux d'entre elles la différence entre les types de têtes est significative.

Exemple 6 : Analyse unidimensionnelle de mesures répétées à l'aide d'un plan de split plots. Cette expérience a été menée pour déterminer l'effet de l'évaluation de l'anxiété individuelle sur la réussite à l'examen lors de quatre tentatives consécutives. Les données sont organisées de manière à pouvoir être vues comme un groupe de sous-ensembles de l'ensemble de données complet (« total plot »). L'effet de l'anxiété était insignifiant, tandis que l'effet d'essayer était significatif.

Liste des méthodes

  • Modèles d'expérimentation factorielle. Exemples : facteurs influençant le succès de la résolution de problèmes mathématiques ; facteurs influençant le volume des ventes.

Les données sont constituées de plusieurs séries d'observations (traitements), qui sont considérées comme des réalisations d'échantillons indépendants. L'hypothèse initiale dit qu'il n'y a pas de différence dans les traitements, c'est-à-dire il est supposé que toutes les observations peuvent être considérées comme un échantillon de la population générale :

  • Modèle paramétrique à un facteur : méthode de Scheffe.
  • Modèle non paramétrique à un facteur [Lagutin MB, 237] : critère de Kruskal-Wallis [Hollender M., Wolf DA, 131], critère de Jonkhier [Lagutin MB, 245].
  • Cas général d'un modèle à facteurs constants, théorème de Cochran [Afifi A., Eisen S., 234].

Les données sont des observations en double :

  • Modèle non paramétrique à deux facteurs : critère de Friedman [Lapach, 203], critère de Page [Lagutin MB, 263]. Exemples : comparaison de l'efficacité des méthodes de production, techniques agricoles.
  • Modèle non paramétrique à deux facteurs pour les données incomplètes

Histoire

D'où vient le nom analyse de la variance? Il peut sembler étrange que la procédure de comparaison des moyennes soit appelée analyse de variance. En fait, cela est dû au fait qu'en examinant la signification statistique de la différence entre les moyennes de deux (ou plusieurs) groupes, nous comparons (analysons) en fait les variances de l'échantillon. Le concept fondamental d'analyse de variance est proposé Pêcheur en 1920. Le terme le plus naturel serait peut-être l'analyse de la somme des carrés ou l'analyse de la variation, mais traditionnellement, le terme ANOVA est utilisé. Initialement, l'ANOVA a été développée pour traiter les données obtenues à partir d'expériences spécialement conçues et était considérée comme la seule méthode qui étudie correctement les relations causales. La méthode a été utilisée pour évaluer les expériences de production végétale. Plus tard, la signification scientifique générale de l'analyse de la variance pour les expériences en psychologie, pédagogie, médecine, etc.

Littérature

  1. Scheffe G. Analyse de variance. - M., 1980.
  2. Ahrens H. Leuter Yu. Analyse multivariée de la variance.
  3. A. I. Kobzar Statistiques mathématiques appliquées. - M. : Fizmatlit, 2006.
  4. Lapach S.N., Chubenko A.V., Babich P.N. Statistiques en sciences et en affaires. - Kiev : Morion, 2002.
  5. Lagutin M. B. Statistiques mathématiques visuelles. En deux tomes. - M. : P-centre, 2003.
  6. Afifi A., Eisen S. Analyse statistique : une approche informatisée.
  7. Hollender M., Wolfe D.A. Méthodes statistiques non paramétriques.

Liens

  • Analyse de variance - Manuel électronique StatSoft.


 


Lire:



Le chef de l'Église orthodoxe - la structure de l'Église orthodoxe russe

Le chef de l'Église orthodoxe - la structure de l'Église orthodoxe russe

L'une des quinze Églises orthodoxes locales est l'Église orthodoxe russe. Il s'agit d'une Église locale multinationale située à ...

Conflit entre le patriarche Nikon et le tsar Alexeï Mikhaïlovitch

Conflit entre le patriarche Nikon et le tsar Alexeï Mikhaïlovitch

Le tsar Alexei Mikhailovich et le patriarche Nikon Introduction ……………………………………………………………………… ... 3 1. Le tsar Alexei Mikhailovich et Nikon devant l'église. . .

Vie de Serge de Radonezh Un exemple de discours artistique de la vie de Serge de Radonezh

Vie de Serge de Radonezh Un exemple de discours artistique de la vie de Serge de Radonezh

Introduction Chapitre 1. Simon Azaryin - scribe et écrivain 1.1 La signification du genre hagiographique dans la littérature russe ancienne 2 Caractéristiques de la vie et ...

Chronique de la vie de serge de radonège signes de vie dans la vie de serge de radonège

Chronique de la vie de serge de radonège signes de vie dans la vie de serge de radonège

Le premier auteur de l'ouvrage "La vie de Serge de Radonège", dont un résumé est présenté ici, est Épiphane le Sage. Il a accepté ce travail...

image de flux RSS