Faire des décisions



Autres articles du cycle


.



Ce travail porte sur la sécurité des systèmes d'information dans lesquels des décisions d'information sérieuses sont prises et qui peuvent être divisées en trois types:



  • premièrement, les systèmes de recherche d’informations (systèmes de recherche d’informations (SSI), systèmes d’information et de mesure (IIS) et autres);
  • deuxièmement, les systèmes émetteurs-récepteurs (systèmes de transmission de données (DTS), systèmes de demande-réponse (ZOS) et autres);
  • -, , ( , , ).


Dans tous les systèmes, la gestion est un phénomène, un processus, une activité important, qui comprend, en tant que composants, l'organisation du système, l'allocation des ressources (planification), la prise de décision et la communication.



Il est difficile de nommer un domaine d'activité dans lequel des décisions ne seraient pas prises de temps à autre. Cette situation et ce phénomène ont toujours eu lieu maintenant et dans le futur. Une personne ne lèvera pas le petit doigt sans prendre une décision à ce sujet. Ce n'est pas toujours réalisé, mais c'est exactement le cas.



Ici (dans le travail) nous nous concentrerons sur la théorie du choix et de la prise de décision, qui examine les modèles mathématiques de la prise de décision et leurs propriétés. Pendant longtemps, la science de la prise de décision a évolué, pourrait-on dire, à sens unique. Le schéma classique est couvert par la théorie statistique basée sur la fonction de risque, sur les erreurs du premier et du second type.



Cette approche de la prise de décision a joué un rôle positif et son applicabilité n'est pas niée aujourd'hui, mais se limite aux principes de rationalité. L'approche n'est pas sans inconvénients. Il y a un slogan bien connu attribué au classique (Gosset (pseudonyme Student)) de la théorie statistique «sur trois types de mensonges: délibéré, non intentionnel et statistique».



Une autre direction de la théorie de la prise de décision - algébrique - est apparue un peu plus tard, mais s'est avérée inaccessible pour la compréhension (et, par conséquent, pour l'application). L'approche est basée sur la théorie des relations d'ordre partiel et sa version particulière - relations de préférence. J'ai récemment écrit à ce sujet , mais la publication n'a pas été approuvée, pour le dire légèrement.



Je vois la méchanceté de cette pratique dans le fait qu'une telle attitude envers la publication, les lecteurs qui ont la possibilité de donner des notes négatives, ralentit et décourage les autres lecteurs de la connaître, en s'appuyant sur l'opinion de quelqu'un d'autre.



Peut-être qu'après un court laps de temps, les têtes brûlées se sont refroidies, rien de choquant n'a été dit dans la publication, mais quelqu'un a pris mes remarques personnellement. Même la littérature pédagogique de la seconde approche est très limitée, et bien qu'il existe des monographies, elles sont difficiles à percevoir, ce qui constitue un certain frein au développement de l'approche.



Lorsqu'il s'agit de sécurité de l'information (SI), il est souhaitable de voir l'ensemble des problèmes et des tâches qui y sont inhérents et, bien sûr, la tâche de gestion de la sécurité de l'information, en particulier, la sélection et la prise de décision, est importante dans la liste complète des tâches.



En général, je reviens ici à la théorie des relations et à ses applications, dont l'une est le mécanisme de prise de décision et les résultats de la théorie de la prise de décision.... Dans cette publication, je vais révéler les principales dispositions de la théorie, et dans la prochaine je donnerai un exemple montrant les aspects et les détails informatiques. Tout d'abord, je nommerai les principaux éléments de sujet de l'approche statistique dans la théorie de la prise de décision, puis je les décrirai brièvement.



Fonction de risque (RF). Erreurs, type d'erreur;

Ensemble initial d'alternatives (IMA);

Principe d'optimalité (OP);

Décideur (DM);

Fonction de sélection (FV);

Fonction d'utilité (FP);

Critère de décision.



Prise de décision et moyens de minimiser les risques



La décision est toujours prise dans une situation de choix, impliquant des pertes, des aléas et certains risques qu'il est souhaitable de minimiser. S'il n'y a pas de choix, alors il n'y a rien à décider, agir de façon unique ou ne rien faire du tout, comme l'alternative l'indique.



La raison d'être et le but de la minimisation des risques est d'appliquer des garanties efficaces afin que le risque résiduel dans le système devienne acceptable.

Minimisation des risques Suppose la solution de trois questions: identification des zones où le risque est trop élevé; sélection des moyens de protection les plus efficaces; évaluer les mesures de protection et déterminer si le risque résiduel dans le système est acceptable.



Dans la recherche scientifique, des hypothèses sont utilisées, qui sont avancées, formulées, testées, confirmées ou réfutées, c'est un moyen naturel de recherche. Les hypothèses peuvent être très différentes quant au contenu, à la façon dont elles sont formulées et à la façon dont elles sont testées. Une classe importante est celle des hypothèses statistiques, qui sont formulées soit par rapport à la forme de la loi de distribution d'une variable aléatoire, soit par rapport aux paramètres de cette loi, soit par rapport à l'ordre de rang des valeurs d'une variable aléatoire.



Les hypothèses formulées concernant les valeurs probabilistes et statistiques et les valeurs de rang sont vérifiées et évaluées à l'aide de divers types de techniques et de critères statistiques. Les résultats des tests et de l'évaluation des hypothèses statistiques permettent de tirer des conclusions qualitatives sur les phénomènes étudiés. Par exemple, le degré de proximité de la loi de distribution empirique d'une variable aléatoire avec la loi théorique normale ou de Poisson.



Hypothèses nulles et alternatives . Hypothèse généralement nulle0 consiste en ce qu'une hypothèse est faite sur la forme de la loi de distribution de probabilité d'une variable aléatoire ou sur le paramètre d'une telle loi, ou sur la séquence de rangs. Une autre hypothèse est1 est appelé alternative.



Un exemple. Laissons l'hypothèse0 - consiste en ce que la variable aléatoire obéit à la loi de distribution de Poisson ou à la loi de distribution normale. Hypothèse alternative1 - une variable aléatoire n'obéit ni à la loi de distribution de Poisson ni à la loi de distribution normale. Il peut y avoir plusieurs hypothèses alternatives. Hypothèse1 agit comme une négation.



Le test de la véracité des hypothèses est toujours effectué sur un échantillon aléatoire. Mais l'échantillon est limité (fini) et ne peut donc pas refléter parfaitement la loi de distribution de probabilité dans la population générale. Il y a toujours un risque de formuler une telle hypothèse qu'un «mauvais» échantillon puisse donner des informations complètement fausses sur le bien-fondé de l'affaire. Ainsi, il y a toujours une chance d'arriver à une fausse décision.



Selon les résultats de l'application de l'un des critères de test statistique des hypothèses, l'une des quatre situations

se présente:0 accepté, et il est vrai (respectivement, la

fausse hypothèse alternative est rejetée1 );

hypothèse-zéro0 rejeté et il est faux (en conséquence

, l'hypothèse alternative correcte est acceptée1 );

hypothèse-zéro0 rejeté, bien qu'il soit vrai (en conséquence, une fausse hypothèse est acceptée1 );

hypothèse-zéro0 accepté, bien qu'il soit faux (en conséquence, la vraie hypothèse alternative est rejetée1 );

Les deux premières situations représentent la bonne décision et les deux dernières sont la mauvaise décision.



Erreurs du premier et du second type.

Une erreur du premier type α1 est une décision consistant à rejeter l'hypothèse correcte0 (troisième situation, souvent appelée «cible manquante»).

Une erreur du second type α2 est la décision d'accepter l'hypothèse nulle0 , bien qu'il soit faux (appelé "fausse alarme").





Les erreurs du 1er et du 2ème type peuvent avoir une signification différente et ensuite le choix comme hypothèse principale 0 dans la résolution du problème actuel devient important. Une erreur du premier type doit être considérée comme l'une des erreurs possibles qu'il est plus important d'éviter, c'est-à-dire il vaut mieux modifier le correct que d'accepter le mal.



Soit un événement représenté par le vecteurS=S(x1,x2,,xn) dans un espace à n dimensions, qui ne peut appartenir qu'à l'un des deux ensembles V1 ou V2. Il est intéressant de noter une méthode qui, basée sur l'étude d'un événement représenté par un vecteur, permettrait, avec une probabilité d'erreur minimale, d'obtenir une réponse à la question de savoir lequel des deux ensembles V1 ou V2 doit être attribué à l'événement étudié ou au vecteur qui lui correspond.



En d'autres termes, la méthode doit classer l'événement et se terminer par une décision de l'affecter à une classe spécifique. Théoriquement, dans le processus de prise d'une telle décision, des erreurs de deux types sont possibles, qui sont précisément appelées erreurs du premier et du second type. Dans le même temps, deux hypothèses sont avancées:



H0(SєV1) est une hypothèse supposant que l'événement S appartient à l'ensemble V1 et

H1(SєV2) est une hypothèse supposant que l'événement S appartient à l'ensemble V2.



Nous supposerons qu'une erreur du premier type est admise lorsque l'hypothèse est rejetéeH0(SєV1) , bien qu'il soit valide, et une erreur du second type est admise si l'hypothèse est acceptéeH0(SєV1) si l'hypothèseH1(SєV2) (1).

Hypothèse généralement nulle0 consiste dans le fait qu'une hypothèse est faite sur le phénomène étudié. Une autre hypothèse1 est appelé alternative.



Il peut y avoir plusieurs hypothèses alternatives, et toutes agissent comme une négation du nul.

Le test d'hypothèse est toujours effectué sur un échantillon aléatoire, mais dans l'expérience, l'échantillon est toujours fini et ne peut donc pas refléter parfaitement la loi de distribution de probabilité dans la population générale.



Il y a toujours un risque de formuler une telle hypothèse qu'un «mauvais» échantillon puisse donner des informations complètement fausses sur l'essence de l'affaire. Il y a toujours une chance d'arriver à une fausse décision. Une erreur de type I est souvent appelée «cible manquante» et une erreur de type II est appelée «fausse alarme».



Dans les situations de conflit, le principe de l'efficacité maximale reste pleinement valable. La spécificité du conflit est l'incertitude de la situation, qui engendre des risques. Par conséquent, le principe général du comportement rationnel dans un conflit est une efficacité maximale avec un risque acceptable (ou une efficacité non inférieure à celle spécifiée avec un risque opérationnel minimum). Le concept de risque est loin d’être sans ambiguïté.



L'analyse de divers événements et opportunités vous permet de trouver une règle qui détermine la solution pour chaque point de l'espace à n dimensions considéré. En effet, si l'événement observé est une menace lorsqu'il se manifeste sous la forme d'une attaqueA=A(x1,x2,,xn) (2), qui doit être attribué à l'une des deux images (classes) V1 ou V2, alors une situation se produit lors de la reconnaissance de formes.



Faire apparaître la probabilité d'une menace (attaque)S=S(x1,x2,,xn) , à condition que son image appartienne à la classe V1. Cette probabilité, qui caractérise la densité d'images (membres) de la classe V1, est appelée densité de probabilité conditionnelle dans la classe V1, et est notéeφ(x1,...,xn/V1) ou φ(Xn/V1) (3) .



La désignation de la densité conditionnelle de la distribution de probabilité dans la classe V2 est introduite de manière similaire, c'est-à-direφ(Xn/V2) (4) .

La probabilité d'une "fausse alarme", c'est-à-dire la décision qu'il y a une attaque appartenant à la classe V1, alors qu'en réalité l'attaque appartient à la classe V2, s'écrit,

(5)

φ(V2)Est la probabilité préalable d'attaque par un objet de la classe V2.



De même, la probabilité de « manquer la cible » peut être écrit , (6)

φ(V1)- probabilité a priori d'attaque par un objet de classe V1; et

RV1,RV2- des zones d'espace correspondant aux classes V1 et V2.



Une telle règle de décision présente un intérêt pratique qui minimiserait le risque W ou le coût moyen de la prise de décision, déterminé par la formule suivanteW=α1Pα1+α2Pb (7) , où α1 est le poids de l'erreur de type I, α2 est le poids de l'erreur de type II.



Considérant que les zonesRV1,RV2forment tout l'espace des valeurs possibles, et l'intégrale de la densité de probabilité sur tout l'espace est égale à l'unité, on obtient (8) L'



interprétation de cette approche peut être la suivante. Le problème du choix de la solution optimale se réduit à diviser l'espace des images d'attaque en deux zonesRV1,RV2, de sorte que le risque W est minime. D'après l'expression pour W, nous voyons qu'à cet effet, la régionRV1doit être choisi de telle sorte que l'intégrale de (8) prenne la plus grande valeur négative.



Dans ce cas, l'intégrande doit prendre la plus grande valeur négative, et en dehors de la régionRV1il n'y en a pas d'autre où l'intégrande est négative, i.e. (9) A



partir de la relation (9), on obtient facilement la règle de décision suivante S V1 if , (10)

qui consiste à comparer les rapports des densités de probabilité à un certain seuil θ, constant pour certaines valeurs des poids α1 et α2. Cette règle appartient à la classe des règles bayésiennes, et le rapport des densités de probabilité est appelé coefficient de similarité.



Dans le cas α1 = α2 etφ(V1) = φ(V2)le seuil θ est évidemment égal à un, et ici tout est plus ou moins clair. Les problèmes surviennent du côté gauche de la règle de décision (10) . Densités de probabilité conditionnelleφ(Xn/V1) et φ(Xn/V2)sont censés être connus.



En fait, ce n'est pas le cas. De plus, l'obtention de leur valeur analytique voire numérique présente des difficultés importantes. Par conséquent, le plus souvent, ils sont limités à des valeurs approximatives, déterminant la fréquence relative avec laquelle les attaques d'un objet de la classe V1 se produisent. L'échantillon limité est traité de manière appropriée et les distributions inconnues sont estimées à partir des résultats du traitement.



L'ensemble initial d'alternatives (options) Ω, défini par la situation, les contraintes, les ressources et d'autres conditions. L'ensemble Ω doit être commandé. Définition. Un ordre lâche est une relation binaire, réflexive, transitive et asymétrique.



Si un tel BO n'est pas réflexif, alors l'ordre est appelé strict. Si dans une commande deux alternatives sont comparables, alors la commande est linéaire ou parfaite. Si toutes les alternatives ne sont pas comparables, alors l'ordre est appelé partiel. La relation de préférence est un cas particulier de commande.



Le principe d'optimalité définit le concept de meilleures alternatives en mettant en correspondance φ: Ω → E1. Cette propriété d'alternatives s'appelle un critère , le nombre φ (x) est une évaluation d'une alternative x par un critère, E1 est un espace de critères, dans lequel les coordonnées des points sont des estimations quantitatives selon les critères correspondants.



Le problème général de la prise de décision est au cœur de la théorie, dans lequel l'ensemble des alternatives Ω et le principe d'optimalité peuvent être inconnus. Avec des alternatives connues, un problème de choix se pose , et en plus, avec un principe d'optimalité connu, un problème d'optimisation général .



Définition. Le décideur (DM) fait l'objet d'une décision, doté de certains pouvoirs et responsable des conséquences de la décision de gestion adoptée et mise en œuvre.



Il s'agit d'une personne (ou d'un groupe de personnes) qui a un objectif qui sert de motif pour poser un problème décisionnel et rechercher sa solution.

La préférence du décideur est une relation binaire définie sur un ensemble d'alternatives qui décrit les préférences du décideur, par exemple, sur la base de comparaisons par paires.



Définition .La fonction de risque décrit le risque ou la perte (dommage) possible lors du choix d'une alternative particulière. Le risque est l'attente mathématique de la fonction de perte due à la prise de décision. C'est une évaluation quantitative des conséquences d'une décision. La minimisation des risques est le principal critère d'optimalité en théorie de la décision.



Selon la théorie des décisions statistiques, il est nécessaire de trouver une règle qui minimiserait le risquer, ou le coût moyen de la prise de décision, déterminé par la formule r=δαPα+δβPβδα - le coût (poids) d'une erreur de type I; δβ- le coût d'une erreur de type II.



Définition . La fonction de choix C sert d'expression mathématique du principe d'optimalité et est une application qui attribue à chaque X ⊆ Ω son sous-ensemble C (X) ⊆ X [8, p. 32].

Un ensemble d'options (alternatives) Ω = {xi,i=1(1)4}.



Considérons la fonction de choix C sur cet ensemble Ω.(xi)=xi; (xi,xj)=xk;k=min(i,j); C(xi,xj,xk)=(xi,xj,xk)xrr=max(i,j,k);C()=x1...

Cette fonction peut être représentée sous forme logique par un tableau.



Dans le tableau β (X) est l'ensemble présenté d'alternatives, β (C (x)) est le résultat d'un choix de variables logiques (booléennes)

L'essence de la décision, son adoption consiste à choisir une alternative appropriée.



Définition . FonctionnalitéU(x)- une fonction qui peut être utilisée pour représenter les préférences sur un certain ensemble d'alternatives réalisables. Une fonctionU(x)définie sur un ensemble ordonné X est appelée fonction d'utilité si pour toutx,yєX,x>y<=>U(x)U(y)...



Si l'ensemble d'alternatives X en contient un petit nombre, alors en définissant une relation de préférence binaire (BO) sur cet ensemble , c'est-à-dire en ordonnant les alternatives, il est facile de choisir celle qui convient.



Disposer d'une grande variété d'alternatives à rationaliser devient un processus laborieux. la difficulté est surmontable lorsqu'il est possible de mesurer les préférences et de les remplacer par des indicateurs numériques de qualité.



Les questions de représentation des préférences sous forme de fonctions numériques relèvent de la théorie mathématique de l'utilité.

Si la fonction d'utilité existe, alors pour trouver la solution optimale (l'alternative maximale selon une préférence donnée), il suffit de trouver le maximum de la fonction U (x) sur X, pour laquelle on peut utiliser des méthodes classiques d'analyse mathématique ou d'optimisation.



Théorème (existence d'une fonction d'utilité). Si une préférence stricte (>) est donnée sur un ensemble infini X, alors pour l'existence d'une fonction d'utilité il est nécessaire et suffisant que X contienne un ensemble dénombrable dense dans l'ordre.



Définition . Un ensemble A est appelé ordre dense dans X si pour toutx,yєX\A,x<y il y a un tel zє,x<z<y...

Soit V toute fonction monotone croissante deU(x)puis V[U(x)]sera également une fonction utilitaire.



De plus, si la préférence n'est pas un ordre (linéaire) parfait, alors même dans ce cas, nous pouvons prouver le théorème d'existence de la fonction d'utilitéx>y=>U(x)U(y), mais avec une limitation. Ceci est naturel, car toute fonction génère un ordre parfait, mais ne génère pas d'informations sur la préférence initiale.

Une fonction d'utilité plus simple est une fonction linéaire,U(αx+βy)=αU(x)+βU(y), où α 'et β' sont définis comme des constantes.



Théorème (existence d'une fonction d'utilité linéaire). Si l'ensemble X et l'ordre (*>) satisfont les conditions:

- l'ensemble des alternatives X est un ensemble convexe de l'espace vectoriel;

- la préférence sur un ensemble d'alternatives est continue;

- les mélanges composés d'alternatives indifférentes sont indifférents, alors il existe une fonction linéaire réelle U (x) telle que pour tout

x,yєX,x>y<=>U(x)U(y).



En pratique, le cas bidimensionnel des variables y et x est intéressant.

La fonction d'utilité prend la forme suivante pour le cas bidimensionnel

U(x,y)=(αx1/p+βy1/p)p.

Pour différentes valeurs du paramètre p, des cas particuliers peuvent être obtenus.



Si p = 1, alors la fonction est linéaire et décrit des substituts parfaits. Dans ce cas, le taux marginal de substitution est égal au rapport des paramètres α / β,

U(x,y)=(αx+βy).



Si p → - ∞, alors on obtient la fonction de Leont'ev, qui décrit des compléments parfaits. Le taux marginal de substitution dans ce cas est infini.

U(x,y)=min(αx,βy).



Comme p → 0, la fonction de Cobb-Douglas est obtenue si on impose la condition supplémentaire α + β = 1

U(x,y)=(xα·yβ).



Modélisation des processus décisionnels



Le concept de modèle dans la science moderne est devenu familier et le besoin de clarifier le contenu du concept a cessé de se réaliser. Dans la pratique, les concepts de modèles, de procédures, de schémas et de méthodes de prise de décision sont souvent confus et ne se distinguent plus l'un de l'autre. Les possibilités de modélisation des préférences chevauchent souvent celles d'une personne et souvent les capacités du modèle s'avèrent plus riches que la réalité.



Il suffit de parler d'un modèle de prise de décision en lien avec une tâche de décision (DP) spécifique à résoudre. Cela signifie qu'une classe de structures de préférences de base a été sélectionnée, au sein de laquelle la recherche de la meilleure solution sera effectuée.



Différents modèles pour résoudre le même ZPR différeront précisément dans les principes qui les sous-tendent. Nous supposons qu'un ensemble de structures initiales de préférences (relations) est considéré, donné sous forme de matrice, par exemple, des matrices de comparaisons par paires. Sur cet ensemble, un certain DP est étudié et on dit que sur l'ensemble des structures initiales, un modèle pour résoudre le DP déclaré est donné.



Des exigences assez strictes sont imposées aux modèles de prise de décision: exactitude, adéquation, complétude, universalité, etc. L'

exactitude en mathématiques est déterminée par l'existence d'une solution, l'unicité de la solution et sa stabilité.



Adéquation - conformité avec l'original, c'est-à-dire l'exactitude de la réflexion dans le modèle des principes et des caractéristiques modélisés du processus de prise de décision. Les différences entre les approches normative (prescriptive) et descriptive sont importantes.

Le premier est dominé par des hypothèses a priori sur ce que devraient être les principes généraux, formulés sous forme d'axiomes, que les modèles de prise de décision développés devraient satisfaire.



Dans le second, les caractéristiques des modèles développés sont décrites non pas de manière axiomatique, mais attributive, à l'aide d'un système de propriétés, dont chacune est interprétée de manière significative par le décideur et lui semble raisonnable et, à un degré ou à un autre, souhaitable.



L'exhaustivité des modèles est que les principes sous-jacents qui sous-tendent la prise de décision doivent être reflétés non seulement avec précision, mais aussi suffisamment.

La polyvalence du modèle est déterminée par la possibilité de son application à une large classe de structures de préférences initiales.



Méthodes de prise de décision statistique



Le problème de la prise de décision est formulé comme suit.

Il y a m + 1 étatsS0,S1,...,Sm objet de recherche, formant un groupe complet d'événements incompatibles, les probabilités a priori d'états sont, respectivement, égales 0,1,...,m et 0+1+...+m=1...



Pour chacun des états

, la vraisemblance fonctionneWn(x1,...,xn/Sj),j=1(1)m;;

- ensemble de solutionsγ1,γ2,...,γm;

- fonctions de pertejk=(Sj,γj),j=1(1)m,k=1(1)m;

Est le critère de qualité pour le choix de la solution f (P) associée à la fonction de perte.



Il est nécessaire de déterminer la meilleure règle au sens du critère accepté utilisé dans le problèmeδ(γ1/x1,...,xn) utilisation des observations x1,x2,...,xnprendre une décision.

Les correspondances sont facilement établies: les échantillons correspondent à l'ensemble Ex1,x2,...,xn, la mesure de probabilité P correspond à la fonction de vraisemblance Wn(x1,...,xn/Sj),j=1(1)m;



Fixer des préférences sur l'ensemble P au sens des critères acceptés signifie définir la règle de prise de décision avec les critères adoptés.

Les critères de la théorie des décisions statistiques sont utilisés en fonction de l'exhaustivité des informations initiales. Considérez l'ensemble de critères suivant:

- Bayésien;

- le maximum de la probabilité postérieure;

- plausibilité maximum;

- minimax;

- Neumann-Pearson;

- Walda.



La méthode est basée sur le critère de choix d'une alternative. Conformément aux critères nommés, des règles de prise de décision sont formulées dans le problème. Les critères eux-mêmes sont comparés en fonction de la qualité des règles de décision, par exemple selon la fonction de risque conditionnelrj, qui représente la perte moyenne pour un état donné Sj...



Définition . Règle bayésienne (critère) - est la règle pour prendre une décision optimale qui minimise la fonction de risque moyen. La valeur minimale de la fonction de risque moyen est appelée risque bayésien.



L'utilisation de ce critère suppose la présence de:

- fonctions de perte(Sj,γk);

- fonctions de distribution de probabilité conditionnelle des valeurs d'échantillon

Wn(x1,...,xn/Sj),j=0(1)m;

Est la distribution de probabilité antérieure des états0,...,m...



Définition . Un cas particulier du critère bayésien est toute règle minimax permettant de choisir une solution dans les conditions de la distribution de probabilité a priori la moins favorable (j) États Sj...



Avec une distribution a priori inconnue des états, un critère particulier de qualité de la prise de décision est établi en utilisant uniquement la fonction de risque conditionnelrj...



L'interprétation est la suivante. Il existe de nombreuses règles décisionnelles K, pour chacune desquelles la valeur de la valeur maximale du risque conditionnel est déterminée pour tous les états possibles de l'objet de rechercheSj... Parmi ces valeurs, la plus petite valeur est alors sélectionnée,



ce qui garantit que les pertes (en moyenne) ne dépasseront pas une certaine valeur r *. D'une manière générale, cette règle est un critère très prudent.



Définition . La probabilité postérieure maximale des étatsSj avec échantillon observé x1,...,xnest appelé le critère de l'espèce

.

Dans ce cas, une des hypothèses concernant les étatsSj,

j = 1 (1) m, pour lequel la probabilité postérieure est maximale.



Ce critère est utilisé pour une distribution a priori connue des étatsSj et absence de justification quant au montant des pertes jk... Dans ce cas, le partitionnement de l'espace échantillon est effectué. Vers la régionGk renvoyer ces échantillons x1,...,xnpour lequel, pour tout j ≠ k

P(Sk/x1,...,xn)P(Sj/x1,...,xn)...

Le critère pour prendre une décision est le maximum de la probabilité postérieure.



Définition . Le critère du maximum de vraisemblance est un cas particulier du maximum de la probabilité a posteriori en l'absence d'informations a priori sur la distribution des probabilités d'états, sur les pertes possibles et sur l'hypothèse que tous les états sont également probables, i.e.i=(m+1)1.



Selon le critère d'analyse et d'observation de l'échantillon x1,...,xn une des hypothèses concernant les états Sjpour laquelle la fonction de vraisemblance Wn(x1,...,xn/Sj) plus que d'autres fonctions de vraisemblance Wn(x1,...,xn/Sk),k=0,1,...,j1,j+1,...,m.



Nous allons maintenant considérer la situation avec deux alternatives, souvent rencontrées dans la pratique.

Le problème de la prise de décision est quelque peu simplifié et, lorsqu'on utilise l'un des critères précédemment considérés, il se réduit au calcul du rapport des fonctions de vraisemblance pour l'échantillon observéx1,...,xn et comparer le résultat obtenu à un seuil prédéterminé * (seuils 0 et 1), c'est à dire.

...

Lorsque l'inégalité est satisfaite, la décision est priseγ1, indiquant que l'objet de recherche est dans un état S1... L'inégalité opposée correspond à l'ÉtatS0 et une autre décision est prise γ0...



La valeur seuil C * est déterminée par le critère utilisé. Dans le cas du critère de Bayes , où

0,(1) - respectivement, les probabilités antérieures d'occurrence des événements S0(S1);

01,(10) - pertes lorsqu'un événement survient S0(S1) et en conséquence les décisions prises γ1(γ0); 00,11- pertes avec des décisions correctes.



Avec le critère la probabilité postérieure maximale, la formule est simplifiée

=p0/p1, et

pour le critère du maximum de vraisemblance, il devient constant C * = 1.

Lors de l'utilisation du critère minimax, le seuil est calculé par la formule avec inégalité, dans laquelle au lieu de0,1 substituer les valeurs des probabilités antérieures 0,1, à laquelle la valeur du risque moyen prend la valeur maximale



Définition Le critère de Neumann-Pearson est la règle de choix d'une alternative, dans laquelle la valeur du seuil est déterminée en fonction d'une valeur donnée de la probabilité d'une erreur de type I (α).



Une erreur de type 1 se produit lorsque l'échantillon tombe dans la région critiqueG1, bien que le phénomène étudié soit dans un état S0, c'est à dire. l'hypothèse est correcte0et elle est rejetée.



Une erreur de type II se produit lorsque l'échantillon se situe dans la plage valideG0, bien que le phénomène étudié soit dans un état S1, c'est à dire. une fausse hypothèse est acceptée -0.Pour déterminer la valeur seuil, il est nécessaire de résoudre l'équation intégrale suivante (pour α) par rapport à C *

,

W10(y) - densité de distribution unidimensionnelle du rapport de la fonction de vraisemblance sous l'hypothèse 0...



À son tour, la probabilité d'une erreur du deuxième type β est déterminée à partir de la solution de l'équation intégrale droite, oùW11(y) - densité de distribution unidimensionnelle du rapport de la fonction de vraisemblance sous l'hypothèse 1...



Définition . Le critère de Wald est une règle pour choisir une solution dans laquelle le rapport des fonctions de vraisemblance est comparé à deux seuils01. Définition précise des seuils 01se heurte à d'importantes difficultés mathématiques. ...

Conclusion



L'article donne un bref aperçu des possibilités de la théorie existante de la prise de décision statistique. Les principaux éléments et parties constitutives de la théorie, des applications et des modèles sont nommés. Une brève description des éléments nommés est donnée et leurs descriptions sont données.



En termes pédagogiques, il est important de connaître l'existence d'une telle théorie et, lorsque le besoin se fait sentir et prend conscience de la nécessité de prendre des décisions, se tourner vers ses bases. Je voudrais noter que dans ce domaine, ainsi que dans le domaine de l'éducation, tout le monde se considère (surtout les parents) comme très compétent.



Mais c'est précisément la conséquence de l'éducation que l'alcoolisme et la toxicomanie fleurissent chez les jeunes, et la conséquence de la sous-éducation est les décisions prises qui nous mènent à ce que nous avons dans notre pays.



Je n'exclus pas que quelqu'un soit retrouvé et dise que la conclusion n'est pas le sujet.



Bibliographie
1. .., .. . -.: . , 1973. – 172.

2. .., .. .- .: , 1996. — 192.

3. .. . – .: .. «», 2005. – 144.

4. /.., .. .–.: , 2000.

5. . . — .: , 1976. – 248.

6. . . –.: , 1978. – 352 .

7. ., . . – .: ,1976.– 416.

8. .. . : / . . [ .]. — .: , 1982.

9. . .– .: ,1987. –608.

10. .. . – .: ,1969. – .

11. . . –.: , 1962. – .

12. .. . – .: – 89, 2003. –352.

13. CCEB-96/011. 1: . 1.0. 96/01/31. E/E. .

14. .. . . — .: ,1989. — 288.

15. .. . — .: ,1998. — 416.

16. – .: ,1953.-

17. . — .: ,1950. — 806.

18. . Z-. — .: , 1971.- 288.

19. FIPS PUB 191, . 9 1994 . E/E.

21. Katzke, Stuart W. ,Phd., “A Framework for Computer Security Risk Management”, NIST, October, 1992.

22. .. . — .: , 1977. — 302.

23. .. - .– .: , 1972. — 117.

24. .. . — .: , 1969. — 160.

25. .., .. . — .: , 1973. — 64.

26. . , . . — .: ,1970. 27. .. . . . — .: , 1995. — 120.

28. . . — .: , 1967. —

29. .. . — .: , 1977. — 30. . . -.: ,1985. —

31. . . — .: , 1989. –

32. . . — .: , 1997. — 376.




All Articles