maison - Des portes
Diagnostic et traitement de la cardiopathie ischémique chronique Diagnostic de la cardiopathie ischémique chronique (partie 2). Probabilité a priori Méthodes d'estimation de la probabilité a priori

Un raisonnement fondé uniquement sur des faits précis et des déductions précises à partir de ces faits est appelé raisonnement strict. Dans les cas où des faits incertains doivent être utilisés pour prendre des décisions, un raisonnement rigoureux devient inadapté. Par conséquent, l’une des plus grandes forces de tout système expert est sa capacité à raisonner dans des conditions d’incertitude avec autant de succès que le font les experts humains. Un tel raisonnement n’est pas rigoureux. Nous pouvons parler de présence en toute sécurité logique floue.

Incertitude, et par conséquent, la logique floue peut être considérée comme un manque d’informations adéquates pour la prise de décision. L’incertitude devient un problème car elle peut entraver la création de la meilleure solution et même conduire à trouver une mauvaise solution. Il convient de noter qu’une solution de haute qualité trouvée en temps réel est souvent considérée comme plus acceptable qu’une meilleure solution dont le calcul est long. Par exemple, retarder le traitement pour permettre des tests supplémentaires peut entraîner la mort du patient avant de recevoir le traitement.

La raison de l'incertitude est la présence de diverses erreurs dans les informations. Classement simplifié Ces erreurs peuvent être présentées dans leur division selon les types suivants :

  • ambiguïté de l'information, dont l'apparition est due au fait que certaines informations peuvent être interprétées de différentes manières ;
  • informations incomplètes en raison du manque de certaines données ;
  • insuffisance d'information due à l'utilisation de données qui ne correspondent pas à la situation réelle (les raisons possibles sont des erreurs subjectives : mensonges, désinformation, dysfonctionnement des équipements) ;
  • les erreurs de mesure résultant du non-respect des exigences d'exactitude et de précision des critères de présentation quantitative des données ;
  • erreurs aléatoires, dont la manifestation sont des fluctuations aléatoires des données par rapport à leur valeur moyenne (la raison peut être : le manque de fiabilité de l'équipement, le mouvement brownien, les effets thermiques, etc.).

Aujourd'hui, un nombre important de théories de l'incertitude ont été développées, qui tentent d'éliminer certaines, voire toutes les erreurs et de fournir une inférence logique fiable dans des conditions d'incertitude. Les théories les plus couramment utilisées en pratique sont celles basées sur la définition classique de la probabilité et sur la probabilité a posteriori.

L’un des outils les plus anciens et les plus importants pour résoudre les problèmes d’intelligence artificielle est la probabilité. Probabilité est une manière quantitative de prendre en compte l’incertitude. La probabilité classique trouve son origine dans une théorie proposée pour la première fois par Pascal et Fermat en 1654. Depuis lors, de nombreux travaux ont été réalisés dans le domaine des probabilités et dans la mise en œuvre de nombreuses applications des probabilités dans les domaines scientifique, technologique, commercial, économique et autres.

Probabilité classique

Probabilité classiqueégalement appelée probabilité a priori, puisque sa définition s'applique aux systèmes idéaux. Le terme « a priori » fait référence à une probabilité déterminée « à des événements », sans tenir compte de nombreux facteurs qui se produisent dans le monde réel. Le concept de probabilité a priori s'étend aux événements se produisant dans des systèmes idéaux sujets à l'usure ou à l'influence d'autres systèmes. Dans un système idéal, l’occurrence de n’importe lequel des événements se produit de la même manière, ce qui rend leur analyse beaucoup plus facile.

La formule fondamentale de la probabilité classique (P) est définie comme suit :

Dans cette formule W- le nombre d'événements attendus, et N- le nombre total d'événements avec des probabilités égales qui sont les résultats possibles d'une expérience ou d'un test. Par exemple, la probabilité d’obtenir n’importe quelle face d’un dé à six faces est de 1/6, et la probabilité de piocher n’importe quelle carte d’un jeu contenant 52 cartes différentes est de 1/52.

Axiomes de la théorie des probabilités

Une théorie formelle des probabilités peut être créée sur la base de trois axiomes :

Les axiomes ci-dessus ont permis de jeter les bases de la théorie des probabilités, mais ils ne considèrent pas la probabilité que des événements se produisent dans des systèmes réels non idéaux. Contrairement à l'approche a priori, dans les systèmes réels, pour déterminer la probabilité d'un événement P(E), une méthode est utilisée pour déterminer la probabilité expérimentale en tant que limite de distribution de fréquence :

Probabilité postérieure

Dans cette formule f(E) désigne la fréquence d'apparition d'un événement entre N-nombre d'observations des résultats globaux. Ce type de probabilité est également appelé probabilité postérieure, c'est à dire. probabilité déterminée « après les événements ». La base pour déterminer la probabilité a posteriori est la mesure de la fréquence à laquelle un événement se produit sur un grand nombre d'essais. Par exemple, déterminer le type social d'un client bancaire solvable sur la base d'une expérience empirique.

Des événements qui ne s’excluent pas mutuellement peuvent s’influencer mutuellement. De tels événements sont classés comme complexes. La probabilité d'événements complexes peut être calculée en analysant leurs espaces d'échantillonnage correspondants. Ces espaces échantillons peuvent être représentés à l’aide de diagrammes de Venn, comme le montre la Fig. 1

Fig. 1 Exemple d'espace pour deux événements non mutuellement exclusifs

La probabilité d'occurrence de l'événement A, qui est déterminée en tenant compte du fait que l'événement B s'est produit, est appelée probabilité conditionnelle et est notée P(UNE|B). La probabilité conditionnelle est définie comme suit :

Probabilité préalable

Dans cette formule, la probabilité P(B) ne doit pas être égal à zéro et représente une probabilité a priori déterminée avant que d’autres informations supplémentaires ne soient connues. Probabilité préalable, qui est utilisée en relation avec l'utilisation de la probabilité conditionnelle, est parfois appelée probabilité absolue.

Il existe un problème qui est essentiellement à l’opposé du problème du calcul de la probabilité conditionnelle. Elle consiste à déterminer la probabilité inverse, qui montre la probabilité d'un événement précédent en tenant compte des événements survenus dans le futur. Dans la pratique, ce type de probabilité se produit assez souvent, par exemple lors de diagnostics médicaux ou de diagnostics d'équipements, au cours desquels certains symptômes sont identifiés et la tâche consiste à trouver une cause possible.

Pour résoudre ce problème, utilisez Théorème de Bayes, du nom du mathématicien britannique du XVIIIe siècle Thomas Bayes. La théorie bayésienne est désormais largement utilisée pour analyser les arbres de décision en économie et en sciences sociales. La méthode bayésienne de recherche de solutions est également utilisée dans le système expert PROSPECTOR lors de l'identification de sites prometteurs pour l'exploration minérale. Le système PROSPECTOR a acquis une grande popularité en tant que premier système expert grâce auquel un précieux gisement de molybdène d'une valeur de 100 millions de dollars a été découvert.

C7 Dans sa forme moderne, le théorème de Bayes a en réalité été formulé par Laplace. La formulation du problème lui-même appartient à Thomas Bayes. Il l’a formulé comme l’inverse du célèbre problème de Bernoulli. Si Bernoulli recherchait la probabilité de divers résultats en lançant une pièce de monnaie « tordue », alors Bayes, au contraire, cherchait à déterminer le degré de cette « courbure » à partir des résultats empiriquement observés du lancer d'une pièce de monnaie. Il n’y avait aucune probabilité a priori dans sa décision.


Bien que la règle paraisse très simple, elle est difficile à appliquer en pratique, puisque les probabilités a posteriori (ou même les valeurs des fonctions de décision simplifiées) peuvent être inconnues. Leurs valeurs peuvent être estimées. En vertu du théorème de Bayes, les probabilités a posteriori peuvent être exprimées par des probabilités a priori et des fonctions de densité en utilisant la formule Р С, Iх = Р С, (Р(х I С, / Р Су Р xI С,

En évaluant les résultats du classement selon la méthode MDA, on constate une proportion importante de décisions erronées concernant des entreprises en faillite (groupe 1) - l'une d'entre elles aurait obtenu un prêt. Les entreprises dont la position est floue (groupe 2) sont difficiles à classer correctement car elles peuvent se retrouver dans le groupe 1 ou 3. La question ne peut pas être améliorée en alignant les probabilités a priori sur les convictions de la banque concernant la probabilité que l'entreprise appartienne à différents groupes. Le taux global d’exactitude des prédictions n’était que de 56,6 % et seuls 30 % des membres du groupe 1 étaient correctement classés.

Compte tenu du niveau actuel de complexité et de simultanéité des processus en cours, les modèles basés sur des relations causales ont des possibilités d'application limitées ; les événements nouvellement survenus modifient constamment les spécifications de toutes les variables (incluses et non incluses dans le modèle) et les valeurs de les probabilités a priori et les montants des paiements pour diverses stratégies sont très incertains et fluctuent considérablement en fonction des changements dans la croissance économique, des taux d'intérêt, des taux de change et de la rentabilité des transactions hors prêts (par exemple, les changements dans les frais et commissions de transaction).

Puisque dans une situation réelle, il est impossible de savoir à l'avance quelle partie des entreprises représentées dans un échantillon aléatoire fera faillite d'ici un an et puisque les auteurs des deux modèles considérés, comme on peut le supposer, ont fixé les niveaux de séparation en fonction de quelques hypothèses spécifiques sur les probabilités a priori de faillite et le coût des erreurs, nous avons simplifié la procédure de comparaison et introduit des niveaux de division relatifs. En d’autres termes, pour chaque modèle, nous avons considéré les 10 % inférieurs des signaux émis par le modèle pour l’année suivante comme des signaux de faillite. En fait, cette approche signifie une probabilité préalable globale de faillite de 10 % et un rapport entre le nombre de signaux de faillite et les faillites réelles dans le test précédent, qui est déterminé à l'aide du seuil d'optimisation. De plus, cette méthode présente l’avantage de minimiser les distorsions résultant du décalage temporel important entre la publication du score Z d’Altman et la conduite de l’expérience. Les indicateurs moyens peuvent avoir changé pendant cette période, et donc la division des entreprises en fortes et faibles, basée sur une certaine proportion, semble plus fiable. Dans le tableau Le tableau 9.2 présente les résultats d'une expérience de prévision des faillites un an à l'avance, en indiquant l'erreur pour chaque modèle.

En prenant la probabilité a priori comme un fait, estimez le bénéfice attendu en cas d'ouverture d'une succursale.

Notons A. l'événement que q b [

Soit par exemple sélectionner les paramètres suivants : le montant des investissements en capital, le montant des coûts d'exploitation et le prix des produits finis, qui peuvent respectivement prendre les valeurs Kb K2, K3 Eb E2, E3 Ts Ts2, Ts- Chacune de ces valeurs correspond à une certaine probabilité a priori, par exemple, Kb Eb C a une probabilité pt = 0,1, pour K2, E2, C2 la probabilité sera p2 = 0,8, et pour K3, E3, C3 - p3 = 0,1.

Soit la probabilité a priori d’obtenir à l’issue du processus de conception une solution technique satisfaisant aux exigences

Si le joueur 2 a plus d'une stratégie dans le jeu G et que les probabilités préalables de leur utilisation sont inconnues du joueur 1 ou que cela n'a même aucun sens de parler de ces probabilités, alors tout ce qui vient d'être dit n'est pas applicable.

Comme nous l'avons vu précédemment, les changements dans les probabilités a priori p et q dépendent des paramètres du signal.

Il s'ensuit que si nous avons un sujet neutre au risque qui croit que l'option d'achat coûtera C avec probabilité tg et j avec probabilité (1 - tg), alors ce sujet calculera le prix actuel de l'option en parfaite conformité avec l'équation nous avons dérivé. A noter que nous n'avons jamais supposé l'existence de probabilités a priori d'occurrence d'un cours d'action particulier et, par conséquent, de valorisation future de l'option. L’approche décrite est appelée évaluation sans risque.

Soit tg(

Le côté droit de (7.53) n'est pas une densité au sens propre, puisque son intégrale n'est pas définie ; cependant, lors du calcul de la densité de la distribution a posteriori des paramètres à l'aide de la formule de Bayes, des difficultés formelles lorsque l'on travaille avec (7.53) soit ils ne surviennent pas, soit ils peuvent être facilement surmontés . Comme nous le verrons plus loin dans la section 7.3.2, le choix (7.53) est commode en termes analytiques et, semble-t-il, reflète bien l'absence totale de connaissances a priori sur la distribution des paramètres. Mais elle cache en réalité des hypothèses très fortes : l’absence de corrélation entre les paramètres (et non la corrélation entre les estimations des valeurs des paramètres, qui dépend de la distribution des régresseurs et de la valeur de a), la petitesse négligeable de la probabilité a priori que le vecteur de paramètres réside dans un volume fini donné, quelle que soit sa taille, etc. Cela conduit parfois à de sérieuses difficultés dans l'interprétation des résultats de l'estimation bayésienne.

Considérons le contenu du théorème de Bayes d'un point de vue légèrement différent. Pour ce faire, nous notons tous les résultats possibles de notre expérience. Laissez les symboles H0, h signifier le résultat : la pièce n'est pas recouverte et sa face supérieure est les armoiries." Si vous estimez la probabilité a priori d'occurrence

I comme V2i, alors la probabilité du résultat spécifié sera Va X x1/2=1/4 - Ci-dessous, nous fournissons une liste de tous les résultats et leurs probabilités antérieures

Ainsi, dans l’exemple avec une pièce de monnaie et un dé, P(Na) est la probabilité a priori, P(Na K) est la probabilité a posteriori et P(Na) est la vraisemblance.

Si maintenant la probabilité a priori P(H0) peut être prise égale à 1 ou à 0, on dit que le décideur

Imaginons maintenant que l'expérimentateur offre au décideur des informations totalement fiables (ou complètes) sur l'objet particulier qui n'est pas couvert. Le décideur doit cependant payer pour le service de communication d'une telle information totalement fiable avant de recevoir cette information. Quelle serait la valeur de telles informations ?Il peut anticiper et se demander ce qu'il fera en réponse à chacun des deux messages possibles que peut fournir un service donné, et calculer ses revenus en fonction des réponses reçues. Pondérer ce revenu par les probabilités a priori de messages possibles lui permettrait d'estimer le montant de son revenu attendu s'il payait un certain montant pour une information parfaitement fiable avant de la recevoir effectivement. Puisque ce revenu attendu serait supérieur à 0,5 $, c'est-à-dire ce qu'il attend sur la seule base d'informations a priori, alors l'augmentation du revenu serait le montant maximum qu'il serait logique qu'il paie pour le service d'information.

L'entreprise doit acheter une grande quantité de marchandises aujourd'hui ou demain. Aujourd'hui, le prix du produit est de 14,5 $ l'unité. Selon l'entreprise, son prix sera demain de 10 ou 20 dollars avec la même probabilité. Soit x le prix de demain alors les probabilités antérieures sont égales

Lors de la dernière étape, la fiabilité du choix des probabilités a priori d'occurrence des conditions de marché est vérifiée et l'utilité attendue du raffinement de ces probabilités est calculée. A cet effet, un arbre de décision est construit. Si une étude de marché supplémentaire s'avère nécessaire, il est recommandé de suspendre le processus d'introduction de la nouvelle option de produit sélectionnée jusqu'à ce que des résultats plus fiables soient obtenus.

Dans les activités de marketing pratiques d'une entreprise, il est souvent nécessaire de comparer les coûts d'obtention d'informations partielles (incomplètes) et les coûts d'obtention de nouvelles informations supplémentaires afin de prendre une meilleure décision. Le manager (DM) doit évaluer dans quelle mesure les bénéfices tirés de l'information complémentaire couvrent les coûts d'obtention de celle-ci. Dans ce cas, la théorie bayésienne de la décision peut être appliquée. Les données initiales sont les probabilités a priori P(Sk) et les probabilités conditionnelles P(Z Sk) d'apparition de l'état de marché Z, à condition de supposer l'apparition de l'état 5A. Lorsque de nouvelles informations sont reçues, les utilités attendues de chaque stratégie sont calculées, puis la stratégie ayant l'utilité attendue maximale est sélectionnée. Avec l’aide de nouvelles informations, le décideur peut corriger les probabilités antérieures P(Sk), ce qui est très important lors de la prise de décisions.

Il est maintenant souhaitable de connaître quelle sera la probabilité d'apparition de l'état objectif Sk lorsque de nouvelles informations seront reçues. Il faut donc trouver P(Sk Z), où k,q = 1,p. Il s’agit d’une probabilité conditionnelle et d’une probabilité a priori affinée. Pour calculer P(Sk Z), nous utilisons la formule de Bayes

Ainsi, nous avons obtenu des probabilités a priori actualisées d’apparition de conditions objectives de marché. L'ensemble du processus de calcul et les résultats obtenus sont présentés dans le tableau. 9.11 et 9.12.

L’utilisation de l’approche bayésienne (6.47) nécessite la connaissance des probabilités a priori et des densités de distribution de probabilité.

En utilisant les caractéristiques numériques des objets obtenues à partir de l'ACP, nous avons effectué une analyse discriminante multiple linéaire standard avec les mêmes probabilités a priori (égales à 33 %) d'appartenance à un élément. groupes. 41 % du nombre total de cas ont été correctement classés, ce qui est légèrement meilleur que la précision de 33 % qui aurait été obtenue en attribuant aléatoirement un objet à un groupe ou à un autre. Tableau 8.6 ci-dessous se trouve un tableau des erreurs de classification, également appelé matrice d'erreurs.

Le prochain problème consiste à développer une norme pour les tests. La plupart des modèles MDA sont évalués à l'aide d'un petit nombre d'échantillons, ce qui augmente la probabilité que le modèle surajuste les données de test. Les échantillons contiennent généralement un mélange égal d’entreprises en faillite et d’entreprises non en faillite, et les données elles-mêmes tendent à correspondre à des périodes de faillites intenses. Cela conduit à la conclusion que seuls les résultats de l’évaluation du modèle sur de nouvelles données sont fiables. De la table 9.1 montre que même dans les tests les plus favorables avec de nouvelles données (lorsque tous les exemples sont pris sur la même période et, de plus, homogènes en termes de secteurs et de taille d'entreprise), la qualité est pire que dans les échantillons à partir desquels les paramètres du modèle étaient déterminés. Étant donné qu’en pratique, les utilisateurs des modèles de classification ne seront pas en mesure d’ajuster le modèle à d’autres probabilités antérieures de faillite, à la taille de l’entreprise ou au secteur d’activité, la qualité réelle du modèle pourrait être encore pire. La qualité peut également se détériorer du fait que les échantillons utilisés pour tester les modèles MDA contiennent peu d’entreprises qui n’ont pas fait faillite mais qui sont à risque. S’il n’existe que quatre ou cinq entreprises à risque qui survivent, cela fausse la part réelle des entreprises à risque et, par conséquent, la fréquence des erreurs de type 2 est sous-estimée.

Les méthodes MDA impliquées dans la comparaison ont été calculées et optimisées sur la base d'un taux de faux signaux de 10 1 avec certaines probabilités a priori et le coût des erreurs. Je voudrais utiliser comme critère ex ante le nombre de faillites potentielles dans la population qui est inférieur à 10 pour cent, mais cela ne correspond pas bien aux paramètres des modèles. Cela est également contraire à la pratique selon laquelle l’abaissement du seuil en dessous du niveau de 10 pour cent n’entraîne pas la faillite. Ainsi, lorsque la proportion de faux signaux a été réduite à 7 %, le score Z de Taffler a complètement cessé d'identifier les faillites, et le modèle Datastream a rencontré cet obstacle à environ 8 %. En revanche, le réseau neuronal a reconnu deux cas de faillite en dessous du seuil de 4,5%, soit Le réseau est capable de fonctionner dans des conditions où il n'y a que cinq faux signaux par identification correcte de faillite. Ce chiffre est comparable aux meilleurs résultats obtenus par les modèles MDA sur des tests ex post beaucoup moins exigeants. Deux conclusions en découlent : d’une part, les modèles neuronaux constituent une méthode de classification fiable dans le secteur du crédit, et d’autre part, l’utilisation du cours des actions comme variable cible dans la formation peut s’avérer plus rentable que l’indicateur de faillite/survie lui-même. Le cours de l'action reflète

Pouce. 3-5 décrit les méthodes de mise à l'échelle des préférences (pondérations) pour les événements futurs, les estimations quantitatives du degré de préférence et nous pouvons calculer la probabilité inconditionnelle de tout résultat d'échantillon.

I. Probabilités conditionnelles. Probabilité antérieure et postérieure. 3

II.Événements indépendants. 5

III.Test des hypothèses statistiques. Signification statistique. 7

IV.Utilisation du test du Chi carré 19

1. Déterminer la fiabilité de la différence entre un ensemble de fréquences et un ensemble de probabilités. 19

2. Détermination de la fiabilité de la différence entre plusieurs ensembles de fréquences. 26

TÂCHE INDÉPENDANTE 33

Leçon n°2

  1. Probabilités conditionnelles. Probabilité antérieure et postérieure.

Une variable aléatoire est spécifiée par trois objets : un ensemble d'événements élémentaires, un ensemble d'événements et une probabilité d'événements. Les valeurs que peut prendre une variable aléatoire sont appelées événements élémentaires. Les ensembles d'événements élémentaires sont appelés événements. Pour les variables aléatoires numériques et autres variables peu complexes, tout ensemble spécifiquement donné d’événements élémentaires est un événement.

Prenons un exemple : lancer un dé.

Il y a 6 épreuves élémentaires au total : « point », « 2 points », « 3 points »… « 6 points ». Événement – ​​​​tout ensemble d'événements élémentaires, par exemple « pair » - la somme des événements élémentaires « 2 points », « 4 points » et « 6 points ».

La probabilité de tout événement élémentaire P(A) est de 1/6 :

la probabilité d'un événement est le nombre d'événements élémentaires qu'il contient, divisé par 6.

Très souvent, en plus de la probabilité connue d'un événement, il existe des informations supplémentaires qui modifient cette probabilité. Par exemple, la mortalité des patients. des personnes admises à l’hôpital pour un ulcère gastrique hémorragique aigu est d’environ 10 %. Toutefois, si le patient a plus de 80 ans, ce taux de mortalité est de 30 %.

Pour décrire de telles situations, ce qu'on appelle probabilités conditionnelles. Ils sont notés P(A/B) et se lisent comme « la probabilité de l'événement A étant donné l'événement B ». Pour calculer la probabilité conditionnelle, la formule est utilisée :

Reprenons l'exemple précédent :

Supposons que parmi les patients admis à l’hôpital pour un ulcère gastrique hémorragique aigu, 20 % soient des patients de plus de 80 ans. De plus, parmi l'ensemble des patients, la proportion de patients décédés de plus de 80 ans est de 6 % (rappelons que la proportion de l'ensemble des décès est de 10 %). Dans ce cas

Lors de la définition des probabilités conditionnelles, les termes sont souvent utilisés a priori(littéralement – ​​avant l’expérience) et a postériori(littéralement - après expérience) probabilité.

À l’aide des probabilités conditionnelles, vous pouvez utiliser une probabilité pour en calculer d’autres, par exemple échanger un événement et une condition.

Considérons cette technique à l'aide de l'exemple de l'analyse de la relation entre le risque de rhumatisme articulaire aigu (rhumatisme articulaire aigu) et l'un des antigènes qui en est un facteur de risque.

L'incidence des rhumatismes est d'environ 1 %. Notons la présence de rhumatismes par R +, tandis que P(R +) = 0,01.

La présence d'antigène sera désignée par A+. On le retrouve chez 95 % des patients souffrant de rhumatismes et chez 6 % des personnes ne souffrant pas de rhumatismes. Dans notre notation, ce sont : les probabilités conditionnelles P(A + /R +) = 0,95 et P(A + /R -) = 0,06.

A partir de ces trois probabilités, nous déterminerons successivement d'autres probabilités.

Tout d’abord, si l’incidence des rhumatismes est P(R +) = 0,01, alors la probabilité de ne pas tomber malade est P(R -) = 1-P(R +) = 0,99.

De la formule de probabilité conditionnelle, nous trouvons que

P(A + etR +) = P(A + /R +) * P(R +) = 0,95*0,01 = 0,0095, soit 0,95 % de la population souffre à la fois de rhumatismes et possède l'antigène.

De même

P(A + etR -) = P(A + /R -) * P(R -) = 0,06*0,99 = 0,0594, soit 5,94 % de la population est porteuse de l'antigène, mais ne souffre pas de rhumatismes.

Puisque toute personne porteuse de l'antigène souffre de rhumatismes ou ne souffre pas de rhumatismes (mais pas les deux à la fois), la somme des deux dernières probabilités donne la fréquence de portage de l'antigène dans l'ensemble de la population :

P(A +)= P(A + etR +) + P(A + etR -) = 0,0095 + 0,0594 = 0,0689

En conséquence, la proportion de personnes qui ne possèdent pas l’antigène est égale à

P(A -)=1- P(A +) = 0,9311

Puisque l'incidence des rhumatismes est de 1 % et que la proportion de personnes qui ont l'antigène et souffrent de rhumatismes est de 0,95 %, alors la proportion de personnes qui souffrent de rhumatismes et n'ont pas l'antigène est égale à :

P(A - etR +) = P(R +) - P(A + etR +) = 0,01 – 0,0095 = 0,0005

Nous allons maintenant aller dans la direction opposée, passant des probabilités d'événements et de leurs combinaisons aux probabilités conditionnelles. Selon la formule de probabilité conditionnelle originale P(A + /R +) = P(R + et A +)/ P(A +) = 0,0095/0,06890,1379, soit environ 13,8 % des individus porteurs de l'antigène, souffriront de rhumatismes. . L'incidence dans l'ensemble de la population n'étant que de 1 %, le fait d'identifier un antigène augmente de 14 fois le risque de développer un rhumatisme.

De même, P(R + /A -) = P(R + andA -)/ P(A -) = 0,0005/0,93110,000054, c'est-à-dire que le fait qu'aucun antigène n'ait été détecté lors du test réduit la probabilité de développer un rhumatisme. 19 fois.

Formatons cette tâche dans une feuille de calcul Excel :

Présence de rhumatisme R+

Présence d'antigène chez les patients A+

Présence d'antigène chez les patients A+ non malades

Probabilité de ne pas tomber malade

P(R -)=1- P(R +)

En même temps, ils souffrent de rhumatismes et possèdent l'antigène

P(A + et R +)= P(A + /R +) * P(R +)

Ils sont porteurs de l'antigène, mais ne souffrent pas de rhumatismes

P(A + et R -)= P(A + /R -) * P(R -)

Fréquence du portage d'antigènes dans la population générale

P(A +)= P(A + et R +) + P(A + et R -)

Proportion de personnes sans antigène

P(UNE -)=1- P(UNE +)

Proportion de personnes souffrant de rhumatismes qui n'ont pas d'antigène

P(A - et R +) = P(R +) - P(A + et R +)

Les personnes porteuses de l'antigène développeront des rhumatismes

P(A + /R +)= P(R + et A +)/ P(A +)

Les personnes qui ne sont pas porteuses de l'antigène ne développeront pas de rhumatismes

P(R + /A -)=P(R + et A -)/ P(A -)

Vous pouvez voir le processus de création d'un tableau image2\p2-1.gif

Un événement aléatoire est évalué par un nombre qui détermine l'intensité de la manifestation de cet événement. Ce numéro s'appelle probabilitéévénements P() . Probabilité d'un événement élémentaire – . La probabilité d'un événement est une mesure numérique du degré d'objectivité, de la possibilité de cet événement. Plus la probabilité est élevée, plus l’événement est possible.

Tout événement qui coïncide avec l'ensemble de l'espace de résultat S, appelé événement fiable, c'est à dire. un tel événement qui, à la suite de l'expérience, doit nécessairement se produire (par exemple, la perte d'un nombre quelconque de points de 1 à 6 sur un dé). Si l'événement n'appartient pas à l'ensemble S, alors on considère impossible(par exemple, lancer un nombre supérieur à 6 sur un dé). La probabilité d'un événement impossible est de 0, la probabilité d'un certain événement est de 1. Tous les autres événements ont une probabilité de 0 à 1.

Événements E Et sont appelés opposé, Si E vient quand ça ne vient pas . Par exemple, un événement E– « lancer un nombre pair de points », puis l’événement - "obtenir un nombre impair de points." Deux événements E 1 Et E 2 sont appelés incompatible, s'il n'y a pas de résultat commun aux deux événements.

Pour déterminer les probabilités d'événements aléatoires, des méthodes directes ou indirectes sont utilisées. Lors du calcul direct de la probabilité, on distingue les schémas de calcul a priori et a posteriori, lorsque réaliser des observations (expériences) ou compter a priori le nombre d'expériences m, dans lequel l'événement s'est manifesté, et le nombre total d'expériences réalisées n. Les méthodes indirectes sont basées sur la théorie axiomatique. Puisque les événements sont définis comme des ensembles, toutes les opérations de la théorie des ensembles peuvent être effectuées sur eux. La théorie des ensembles et l'analyse fonctionnelle ont été proposées par l'académicien A.N. Kolmogorov et constitue la base de la théorie axiomatique des probabilités. Présentons les axiomes de probabilité.

Axiomeje. Champ d'événementF(S) est une algèbre d'ensembles.

Cet axiome souligne l’analogie entre la théorie des ensembles et la théorie des probabilités.

AxiomeII. À chaque ensembledepuisF(S) est associé à un nombre réel P(), appelée probabilité de l'événement:

étant donné que S 1 S 2 = (pour les événements incompatibles S 1 Et S 2 ), ou pour un ensemble d'événements incompatibles

N– le nombre d'événements élémentaires (résultats possibles).

Probabilité d'un événement aléatoire

,

– probabilités d’événements élémentaires inclus dans le sous-ensemble .

Exemple 1.1. Déterminer la probabilité d'obtenir chaque nombre en lançant un dé, en obtenant un nombre pair, nombre 4 .

Solution. La probabilité que chaque numéro tombe hors de l'ensemble

S = (1, 2, 3, 4, 5, 6)
1/6.

La probabilité d'obtenir un nombre pair, c'est-à-dire
={2,
4, 6}, sur la base de (1.6), ce sera P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2
.

Probabilité d'obtenir un nombre  4 , c'est à dire.
= {4, 5, 6 } ,

P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2.

Tâches pour le travail indépendant

1. Il y a 20 boules blanches, 30 boules noires et 50 boules rouges dans un panier. Déterminer la probabilité que la première balle tirée du panier soit blanche ; noir; rouge.

2. Il y a 12 garçons et 10 filles dans le groupe d'élèves. Quelle est la probabilité que les personnes suivantes soient absentes du séminaire de théorie des probabilités : 1) un jeune homme ; 2) fille ; 3) deux jeunes hommes ?

3. Au cours de l'année, 51 jours se distinguaient par le fait qu'il pleuvait (ou neigait) ces jours-là. Quelle est la probabilité que vous risquiez d'être pris sous la pluie (ou la neige) : 1) en allant au travail ; 2) partir en randonnée pendant 5 jours ?

4. Composez un problème sur le sujet de ce devoir et résolvez-le.

1.1.3. Définition de la probabilité a posteriori (probabilité statistique ou fréquence

Événement aléatoire)

Lors de la détermination a priori de la probabilité, on a supposé que tout aussi probable. Ce n'est pas toujours vrai ; il arrive le plus souvent que
à
. Hypothèse
conduit à une erreur dans la détermination a priori P( ) selon le schéma établi. Pour déterminer , et dans le cas général P( ) réaliser des tests ciblés. Au cours de tels tests (par exemple, les résultats des tests dans les exemples 1.2, 1.3) dans différentes conditions de diverses conditions, influences, facteurs causals, c'est-à-dire dans différents cas, divers résultats(diverses manifestations de l'information de l'objet étudié) Chaque résultat de test correspond à un élément ou un sous-ensemble ensembles S.Si nous définissons m comme le nombre d'événements favorables UN résultats résultant de n tests, puis la probabilité a posteriori (probabilité statistique ou fréquence d'un événement aléatoire UN)

Basé sur la loi des grands nombres pour UN

, n ,

ceux. à mesure que le nombre d'essais augmente, la fréquence d'un événement aléatoire (probabilité postérieure ou statistique) tend vers la probabilité de cet événement.

Exemple 1.2. Déterminée par le schéma des cas, la probabilité d'atterrir face lors du lancer d'une pièce est de 0,5. Vous devez lancer une pièce de monnaie 10, 20, 30... fois et déterminer la fréquence de l'événement aléatoire de face après chaque série de tests.

Solution. C. Poisson a lancé une pièce 24 000 fois et est tombée sur face 11 998 fois. Ensuite, d'après la formule (1.7), la probabilité d'atterrissage des têtes

.

Tâches pour le travail indépendant

    Basé sur un important matériel statistique ( n ) les valeurs des probabilités d'apparition de lettres individuelles de l'alphabet russe et de l'espace () dans les textes ont été obtenues, qui sont données dans le tableau 1.1.

Tableau 1.1. Probabilité d'apparition de lettres de l'alphabet dans le texte

Prenez une page de n’importe quel texte et déterminez la fréquence d’apparition des différentes lettres sur cette page. Augmentez la longueur des tests à deux pages. Comparez les résultats obtenus avec les données du tableau. Tirer une conclusion.

    Lors du tir sur des cibles, le résultat suivant a été obtenu (voir tableau 1.2).

Tableau 1.2. Résultats du tir sur cible

Quelle est la probabilité que la cible soit touchée dès le premier tir si sa taille était inférieure à « dix », « neuf », etc. ?

3. Planifier et réaliser des tests similaires pour d'autres événements. Présentez leurs résultats.



 


Lire:



Interprétation du diable des cartes de tarot dans les relations Que signifie le diable lasso

Interprétation du diable des cartes de tarot dans les relations Que signifie le diable lasso

Les cartes de tarot vous permettent de découvrir non seulement la réponse à une question passionnante. Ils peuvent également suggérer la bonne solution dans une situation difficile. Assez pour apprendre...

Scénarios environnementaux pour les camps d'été Quiz pour les camps d'été

Scénarios environnementaux pour les camps d'été Quiz pour les camps d'été

Quiz sur les contes de fées 1. Qui a envoyé ce télégramme : « Sauvez-moi ! Aide! Nous avons été mangés par le loup gris ! Quel est le nom de ce conte de fées ? (Les enfants, « Le loup et...

Projet collectif "Le travail est la base de la vie"

Projet collectif

Selon la définition d’A. Marshall, le travail est « tout effort mental et physique entrepris partiellement ou totalement dans le but d’atteindre certains...

Mangeoire à oiseaux DIY : une sélection d'idées Mangeoire à oiseaux à partir d'une boîte à chaussures

Mangeoire à oiseaux DIY : une sélection d'idées Mangeoire à oiseaux à partir d'une boîte à chaussures

Fabriquer votre propre mangeoire à oiseaux n'est pas difficile. En hiver, les oiseaux sont en grand danger, ils ont besoin d'être nourris, c'est pourquoi les gens...

image de flux RSS