
Outros artigos do ciclo
Este trabalho trata da segurança dos sistemas de informação nos quais são tomadas decisões informativas sérias e que podem ser divididos em três tipos:
- em primeiro lugar, os sistemas de recuperação de informação (sistemas de recuperação de informação (ISS), sistemas de medição de informação (IIS) e outros);
- em segundo lugar, sistemas transceptores (sistemas de transmissão de dados (DTS), sistemas de solicitação-resposta (ZOS) e outros);
- -, , ( , , ).
Em todos os sistemas, a gestão é um fenômeno, processo, atividade importante, que inclui, como componentes, a organização do sistema, a alocação de recursos (planejamento), a tomada de decisões e a comunicação.
É difícil nomear uma área de atividade em que as decisões não sejam tomadas de vez em quando. Esta situação e o fenômeno sempre aconteceram agora e no futuro.Uma pessoa não levanta um dedo sem tomar uma decisão sobre isso. Nem sempre é realizado, mas é exatamente assim.
Aqui (no trabalho) vamos nos concentrar na teoria da escolha e da tomada de decisão, que estuda modelos matemáticos de tomada de decisão e suas propriedades. Por muito tempo, a ciência da tomada de decisões se desenvolveu, pode-se dizer, unilateral. O esquema clássico é coberto pela teoria estatística baseada na função de risco, nos erros de primeiro e segundo tipo.
Essa abordagem para a tomada de decisões tem desempenhado um papel positivo e sua aplicabilidade não é negada hoje, mas se limita aos princípios da racionalidade. A abordagem tem suas desvantagens. Há uma frase conhecida atribuída ao clássico (Gosset (pseudônimo de Estudante)) da teoria estatística "sobre três tipos de mentiras: deliberada, não intencional e estatística."
Outra direção da teoria da tomada de decisão - algébrica - apareceu um pouco mais tarde, mas acabou sendo inacessível para compreensão (e, como consequência, para aplicação). A abordagem é baseada na teoria das relações de ordem parcial e sua versão particular - relações de preferência. Escrevi recentemente sobre isso , mas a publicação não foi aprovada, para dizer o mínimo.
Vejo a maldade dessa prática no fato de que tal atitude em relação à publicação, os leitores que têm oportunidade de dar notas negativas, retarda e desencoraja outros leitores de conhecê-la, contando com a opinião de outrem.
Talvez, depois de um curto espaço de tempo, os cabeças-quentes tenham esfriado, nada de ofensivo foi dito na publicação, mas alguém levou minhas observações para o lado pessoal. Mesmo a literatura educacional da segunda abordagem é muito limitada e, embora existam monografias, são de difícil percepção, o que é um certo freio ao desenvolvimento da abordagem.
Ao lidar com segurança da informação (SI), é desejável ver toda a gama de problemas e tarefas inerentes a ela e, claro, a tarefa de gerenciamento de segurança da informação, em particular, seleção e tomada de decisão, é importante na lista completa de tarefas.
Em geral, volto aqui à teoria das relações e suas aplicações, uma das quais é o mecanismo de tomada de decisão e os resultados da teoria da tomada de decisão.... Nesta publicação, revelarei as principais disposições da teoria e, na próxima, darei um exemplo mostrando os aspectos e detalhes computacionais. Em primeiro lugar, vou nomear os principais elementos temáticos da abordagem estatística na teoria da tomada de decisão e, em seguida, descrevê-los resumidamente.
Função de risco (RF). Erros, tipo de erro;
Conjunto inicial de alternativas (IMA);
Princípio da otimização (OP);
Tomador de decisão (DM);
Função de seleção (FV);
Função de utilidade (FP);
Critérios de tomada de decisão.
Tomada de decisão e formas de minimizar o risco
A decisão é sempre tomada em situação de escolha, envolvendo perdas, acaso e certos riscos que se deseja minimizar. Se não houver escolha, então não há nada para decidir, agir de forma única ou não fazer nada, como indica a alternativa.
A justificativa e o propósito da minimização de risco é aplicar salvaguardas eficazes para que o risco residual no sistema se torne aceitável.
Minimização de riscos Pressupõe a solução de três questões: identificação das áreas onde o risco é inaceitavelmente grande; seleção dos meios de proteção mais eficazes; avaliar salvaguardas e determinar se o risco residual no sistema é aceitável.
Na pesquisa científica são utilizadas hipóteses, que são apresentadas, formuladas, testadas, confirmadas ou refutadas, esta é uma forma natural de pesquisa. As hipóteses podem ser muito diferentes em conteúdo, como são formuladas e como são testadas. Uma classe importante são as hipóteses estatísticas, que são formuladas com respeito à forma da lei de distribuição de uma variável aleatória, ou com respeito aos parâmetros desta lei, ou com respeito à ordem de classificação dos valores de uma variável aleatória.
Hipóteses formuladas a respeito de valores probabilísticos e estatísticos e de classificação são verificadas e avaliadas usando vários tipos de técnicas e critérios estatísticos. Os resultados dos testes e avaliações de hipóteses estatísticas permitem tirar conclusões qualitativas sobre os fenômenos em estudo. Por exemplo, o grau de proximidade da lei de distribuição empírica de uma variável aleatória com a normal teórica ou lei de Poisson.
Hipóteses nulas e alternativas . Hipótese geralmente nulaconsiste no fato de que uma suposição é feita sobre a forma da lei de distribuição de probabilidade de uma variável aleatória ou sobre o parâmetro de tal lei, ou sobre a seqüência de classificação. Outra hipótese échamada alternativa.
Um exemplo . Deixe a hipótese- consiste no fato de a variável aleatória obedecer à lei de distribuição de Poisson ou à lei de distribuição normal. Hipótese alternativa- a variável aleatória não obedece à lei de distribuição de Poisson nem à lei de distribuição normal. Pode haver várias hipóteses alternativas. Hipóteseatua como uma negação.
O teste da veracidade das hipóteses é sempre realizado em uma amostra aleatória. Mas a amostra é limitada (finita) e, portanto, não pode refletir com precisão a lei da distribuição de probabilidade na população em geral. Sempre existe o risco de formular tal hipótese de que uma amostra “ruim” possa fornecer informações completamente falsas sobre o mérito do caso. Assim, sempre há uma chance de chegar a uma falsa decisão.
De acordo com os resultados da aplicação de um dos critérios de teste estatístico de hipóteses,
surge uma de quatro situações: - hipótese nulaaceito, e está correto (respectivamente, a
falsa hipótese alternativa);
-zero hipóteseé rejeitado e é falso (consequentemente
, a hipótese alternativa correta é aceita);
-zero hipótese rejeitado, embora seja verdadeiro (consequentemente, uma hipótese falsa é aceita );
-zero hipótese aceita, embora seja falsa (respectivamente, a verdadeira hipótese alternativa é rejeitada );
As duas primeiras situações representam a decisão correta e as duas últimas são a decisão errada.
Erros de primeiro e segundo tipo .
Um erro de primeiro tipo α1 é uma decisão que consiste na rejeição da hipótese correta(terceira situação, muitas vezes referida como "errar um alvo").
Um erro do segundo tipo α2 é a decisão de aceitar a hipótese nulaembora seja falso (chamado de "alarme falso").

Erros de 1o e 2o tipo podem ter significados diferentes e então a escolha como hipótese principal quando resolver o problema em questão torna-se importante. Um erro do primeiro tipo deve ser considerado um dos possíveis erros que é mais importante evitar, ou seja, é melhor modificar o correto do que aceitar o errado.
Seja um evento representado pelo vetorno espaço n-dimensional, que pode pertencer a apenas um dos dois conjuntos V1 ou V2. É interessante um método que, com base no estudo de um evento representado por um vetor, permitiria, com uma probabilidade de erro mínima, obter uma resposta à questão de qual dos dois conjuntos V1 ou V2 deve ser atribuído ao evento em estudo ou ao vetor correspondente a ele.
Em outras palavras, o método deve classificar o evento e terminar com a decisão de atribuí-lo a uma classe específica. Teoricamente, no processo de tomada de tal decisão, erros de dois tipos são possíveis, que são precisamente chamados de erros de primeiro e segundo tipo. Ao mesmo tempo, duas hipóteses são apresentadas:
- a hipótese de que o evento S pertence ao conjunto V1 e
- uma hipótese que assume que o evento S pertence ao conjunto V2.
Vamos supor que um erro de primeiro tipo é permitido quando a hipótese é rejeitada, embora seja válido, e um erro do segundo tipo é permitido se a hipótese for aceita quando a hipótese é verdadeira (1) .
Hipótese geralmente nulaconsiste no fato de que uma suposição é feita sobre o fenômeno em estudo. Outra hipótesechamada alternativa.
Pode haver várias hipóteses alternativas, e todas elas atuam como uma negação do nulo.
O teste de hipótese é sempre executado em uma amostra aleatória, mas no experimento a amostra é sempre finita e, portanto, não pode refletir com precisão a distribuição de probabilidade na população geral.
Sempre existe o risco de formular tal hipótese de que uma amostra “ruim” pode fornecer informações completamente falsas sobre a essência do caso. Sempre há uma chance de chegar a uma falsa decisão. Um erro do tipo I é freqüentemente referido como "falta de um alvo" e um erro do tipo II é chamado de "alarme falso".
Em situações de conflito, o princípio da eficiência máxima permanece totalmente válido. A especificidade do conflito é a incerteza da situação, que dá origem ao risco. Consequentemente, o princípio geral de comportamento racional em um conflito é a eficiência máxima com um risco aceitável (ou alcançar eficiência não inferior à especificada com risco operacional mínimo). O conceito de risco está longe de ser inequívoco.
A análise de vários eventos e oportunidades permite que você encontre uma regra que determina a solução para cada ponto do espaço n-dimensional considerado. Na verdade, se o evento observado é uma ameaça quando se manifesta na forma de um ataque (2) , que deve ser atribuída a uma das duas imagens (classes) V1 ou V2, surge uma situação que ocorre durante o reconhecimento do padrão.
Deixe a probabilidade de uma ameaça (ataque) aparecer, desde que sua imagem pertença à classe V1. Essa probabilidade, que caracteriza a densidade de imagens (membros) da classe V1, é chamada de densidade de probabilidade condicional na classe V1, e é denotada ou (3) .
A designação para a densidade condicional da distribuição de probabilidade na classe V2 é introduzida de forma semelhante, ou seja, (4) .
A probabilidade de um "alarme falso", ou seja, a decisão de que existe um ataque pertencente à classe V1, enquanto na realidade o ataque pertence à classe V2, escreve-se como,
(5)
ondeÉ a probabilidade anterior de um ataque por um objeto da classe V2.
Da mesma forma, a probabilidade de "perder o alvo" pode ser escrita como
, (6)
onde- probabilidade a priori de ataque por um objeto da classe V1; e
- áreas do espaço correspondentes às classes V1 e V2.
De interesse prático é essa regra de decisão que minimizaria o risco W ou o custo médio de tomar uma decisão, determinado pela seguinte fórmula (7) , onde α1 é o peso do erro tipo I, α2 é o peso do erro tipo II.
Considerando que as áreasformar todo o espaço de valores possíveis, e a integral da densidade de probabilidade sobre todo o espaço é igual à unidade, obtemos
(8) A
interpretação desta abordagem pode ser a seguinte. O problema de escolher a solução ótima é reduzido a dividir o espaço das imagens de ataque em duas áreas, de modo que o risco W seja mínimo. A partir da expressão para W vemos que para este propósito a regiãodeve ser escolhido de modo que a integral em (8) receba o maior valor negativo.
Neste caso, o integrando deve assumir o maior valor negativo, e fora da regiãonão há nenhum outro em que o integrando seja negativo, ou seja,
(9)
Da relação (9) obtemos facilmente a seguinte regra de decisão S V1 if
, (10)
que consiste em comparar as razões das densidades de probabilidade com um certo limiar θ, que é constante para certos valores dos pesos α1 e α2. Essa regra pertence à classe das regras Bayesianas, e a razão das densidades de probabilidade é chamada de coeficiente de similaridade.
No caso α1 = α2 e = o limite θ é obviamente igual a um, e aqui tudo é mais ou menos claro. Os problemas surgem do lado esquerdo da regra de decisão (10) . Densidades de probabilidade condicional e deveriam ser conhecidos.
Na verdade, não é esse o caso. Além disso, a obtenção de seu valor analítico ou mesmo numérico apresenta dificuldades significativas. Portanto, na maioria das vezes eles são limitados a valores aproximados, determinando a frequência relativa com que ocorrem os ataques de um objeto da classe V1. A amostra limitada é processada apropriadamente e distribuições desconhecidas são estimadas a partir dos resultados do processamento.
O conjunto inicial de alternativas (opções) Ω, definido pela situação, restrições, recursos e outras condições. O conjunto Ω precisa ser encomendado. Definição. Uma ordem livre é uma relação binária, reflexiva, transitiva e assimétrica.
Se esse BO for não reflexivo, a ordem é chamada de estrita. Se em um pedido quaisquer duas alternativas forem comparáveis, então o pedido é linear ou perfeito. Se nem todas as alternativas são comparáveis, a ordem é chamada de parcial. A relação de preferência é um caso especial de ordenação.
O princípio da otimalidade define o conceito de melhores alternativas mapeando φ: Ω → E1. Essa propriedade de alternativas é chamada de critério , o número φ (x) é uma avaliação de uma alternativa x por um critério, E1 é um espaço de critério, no qual as coordenadas dos pontos são estimativas quantitativas de acordo com os critérios correspondentes.
Central para a teoria é o problema geral de tomada de decisão, em que tanto o conjunto de alternativas Ω quanto o princípio da otimalidade podem ser desconhecidos. Com alternativas conhecidas, surge um problema de escolha e, adicionalmente, com um princípio de otimalidade conhecido, um problema de otimização geral .
Definição. O decisor (DM) é um objeto de decisão, dotado de determinados poderes e responsável pelas consequências da decisão de gestão adotada e implementada.
É uma pessoa (ou grupo de pessoas) que tem um objetivo que serve de motivo para definir o problema de tomar uma decisão e buscar sua solução.
A preferência do tomador de decisão é uma relação binária definida no conjunto de alternativas que descreve as preferências do tomador de decisão, por exemplo, com base em comparações de pares.
Definição .A função de risco descreve o risco ou possível perda (dano) ao escolher uma alternativa particular. Risco é a expectativa matemática da função de perda devido à tomada de decisão. É uma avaliação quantitativa das consequências de uma decisão. A minimização do risco é o principal critério de otimização na teoria da decisão.
De acordo com a teoria das decisões estatísticas, é necessário encontrar uma regra que minimizasse o risco, ou o custo médio de tomada de decisão, determinado pela fórmula Onde
Definição . A função de escolha C serve como uma expressão matemática do princípio de otimalidade e é um mapeamento que associa cada X ⊆ Ω com seu subconjunto C (X) ⊆ X [8, p. 32].
Um conjunto de opções (alternativas) Ω = {
Considere a função de escolha C neste conjunto Ω.
Esta função também pode ser representada de forma lógica por uma tabela.

Na tabela β (X) é o conjunto de alternativas apresentado, β (C (x)) é o resultado da escolha em variáveis lógicas (booleanas)
A essência da decisão, sua adoção consiste na escolha de uma alternativa adequada.
Definição . Funcionalidade
Se o conjunto de alternativas X contém um pequeno número delas, então tendo definido uma relação de preferência binária (BO) neste conjunto , isto é, tendo ordenado as alternativas, é fácil escolher a apropriada.
Ter uma grande variedade de alternativas que precisam ser simplificadas torna-se um processo trabalhoso. a dificuldade é superável quando é possível medir preferências e substituí-las por indicadores numéricos de qualidade.
Questões de representação de preferências na forma de funções numéricas pertencem à teoria matemática da utilidade.
Se a função utilidade existe, então para encontrar a solução ótima (a alternativa máxima de acordo com uma dada preferência), é suficiente encontrar o máximo da função U (x) em X, para a qual se pode usar métodos clássicos de análise matemática ou otimização.
Teorema (existência de uma função de utilidade). Se uma preferência estrita (>) é dada em um conjunto infinito X, então para a existência de uma função de utilidade é necessário e suficiente que X contenha um conjunto contável denso em ordem.
Definição . Um conjunto A é chamado de ordem densa em X se for qualquer
Seja V qualquer função monotonicamente crescente de
Além disso, se a preferência não for uma ordem perfeita (linear), então mesmo assim podemos provar o teorema da existência para a função de utilidade
Uma função de utilidade mais simples é linear,
Teorema (existência de uma função de utilidade linear). Se o conjunto X e a ordenação (*>) satisfazem as condições:
- o conjunto de alternativas X é um conjunto convexo do espaço vetorial;
- a preferência em um conjunto de alternativas é contínua;
- misturas compostas por alternativas indiferentes são indiferentes, então existe uma função linear real U (x) tal que para todos
Na prática, o caso bidimensional para as variáveis y e x é de interesse.
A função de utilidade assume a seguinte forma para o caso bidimensional
Para diferentes valores do parâmetro p, casos especiais podem ser obtidos.
Se p = 1, então a função é linear e descreve substitutos perfeitos. Nesse caso, a taxa marginal de substituição é igual à razão dos parâmetros α / β,
Se p → - ∞, então a função de Leont'ev é obtida, que descreve complementos perfeitos. A taxa marginal de substituição, neste caso, é infinita.
Como p → 0, a função Cobb-Douglas é obtida se impormos a condição adicional α + β = 1
Modelagem de processos de tomada de decisão
O conceito de modelo na ciência moderna tornou-se familiar e a necessidade de esclarecer o conteúdo do conceito deixou de ser realizada. Na prática, os conceitos de modelos, procedimentos, esquemas e métodos de tomada de decisão são freqüentemente confundidos e não mais distinguem uns dos outros. As possibilidades de modelar preferências muitas vezes se sobrepõem às de uma pessoa e, muitas vezes, as capacidades do modelo acabam sendo mais ricas do que a realidade.
É necessário apenas falar sobre um modelo de tomada de decisão em conexão com uma tarefa de tomada de decisão (DP) específica a ser resolvida. Isso significa que foi selecionada uma classe de estruturas básicas de preferência, dentro das quais será realizada a busca pela melhor solução.
Modelos diferentes para resolver o mesmo ZPR diferem precisamente nos princípios subjacentes. Assumimos que um conjunto de estruturas iniciais de preferências (relações) é considerado, dado na forma de matriz, por exemplo, matrizes de comparações pareadas. Neste conjunto, um determinado DP é investigado e diz-se que no conjunto das estruturas iniciais é dado um modelo para resolver o DP declarado.
Em vez disso, requisitos estritos são impostos aos modelos de tomada de decisão: correção, adequação, completude, universalidade, etc. A
correção na matemática é determinada pela existência de uma solução, a singularidade da solução e sua estabilidade.
Adequação - conformidade com o original, ou seja, a correção de reflexão no modelo dos princípios modelados e características do processo de tomada de decisão. As diferenças entre as abordagens normativa (prescritiva) e descritiva são significativas.
O primeiro é dominado por suposições a priori sobre quais devem ser os princípios gerais, formulados como axiomas, que os modelos de tomada de decisão desenvolvidos devem satisfazer.
No segundo, as características dos modelos desenvolvidos são descritas não axiomaticamente, mas atributivamente, usando um sistema de propriedades, cada uma das quais é significativamente interpretada pelo tomador de decisão e parece-lhe razoável e, em um grau ou outro, desejável.
Completude para os modelos é que os princípios subjacentes à tomada de decisão devem ser refletidos não apenas com precisão, mas também suficientemente.
A versatilidade do modelo é determinada pela possibilidade de sua aplicação a uma ampla classe de estruturas de preferência inicial.
Métodos estatísticos de tomada de decisão
O problema de tomada de decisão é formulado da seguinte forma.
Existem m + 1 estados
Para cada um dos estados
, as funções de probabilidade
- conjunto de soluções
- funções de perda
É o critério de qualidade para a escolha da solução f (P) associada à função perda.
É necessário determinar a melhor regra no sentido do critério aceito usado no problema
As correspondências são facilmente estabelecidas: as amostras correspondem ao conjunto E
Definir preferências no conjunto P no sentido dos critérios aceitos significa definir a regra para a tomada de decisão com os critérios adotados.
Os critérios na teoria das decisões estatísticas são usados dependendo da integridade das informações iniciais. Considere o seguinte conjunto de critérios:
- Bayesiano;
- o máximo da probabilidade posterior;
- probabilidade máxima;
- minimax;
- Neumann-Pearson;
- Walda.
O método é baseado no critério de escolha de uma alternativa. De acordo com os critérios nomeados, as regras de decisão são formuladas no problema. Os próprios critérios são comparados pela qualidade das regras de tomada de decisão, por exemplo, pela função de risco condicional
Definição . Regra Bayesiana (critério) - é a regra para tomar a decisão ótima que minimiza a função de risco médio. O valor mínimo da função de risco médio é denominado risco bayesiano.
O uso deste critério pressupõe a presença de:
- funções de perda
- funções de distribuição de probabilidade condicional de valores de amostra
É a distribuição de probabilidade anterior de estados
Definição . Um caso especial do critério Bayesiano é qualquer regra de minimax para escolher uma solução nas condições da distribuição de probabilidade a priori menos favorável (
Com uma distribuição de estados a priori desconhecida, um critério especial para a qualidade da tomada de decisão é estabelecido usando apenas a função de risco condicional
A interpretação é a seguinte. Existem muitas K regras de tomada de decisão, para cada uma das quais o valor do valor máximo do risco condicional é determinado para todos os estados possíveis do objeto de pesquisa
que garante que as perdas (em média) não ultrapassem um determinado valor r *. De modo geral, essa regra é um critério muito cuidadoso.
Definição . A probabilidade posterior máxima de estados
.
Nesse caso, uma das hipóteses em relação aos estados
j = 1 (1) m, para o qual a probabilidade posterior é máxima.
Este critério é usado para uma distribuição anterior conhecida de estados
O critério para tomar uma decisão é o máximo da probabilidade posterior.
Definição . O critério de máxima verossimilhança é um caso especial de probabilidade máxima a posteriori na ausência de informações a priori sobre a distribuição de probabilidades de estado, sobre possíveis perdas e a suposição de que todos os estados são igualmente prováveis, ou seja,
De acordo com o critério na análise e observação da amostra
Agora consideraremos a situação com duas alternativas, que são freqüentemente encontradas na prática.
O problema de tomada de decisão é um tanto simplificado e, ao usar qualquer um dos critérios considerados anteriormente, é reduzido ao cálculo da razão das funções de verossimilhança para a amostra observada
...
Quando a desigualdade é satisfeita, a decisão é feita
O valor limite C * é determinado pelo critério usado. No caso do critério de Bayes
, onde
Com o critério de probabilidade posterior máxima, a fórmula é simplificada
para o critério de máxima verossimilhança torna-se constante C * = 1.
Ao usar o critério minimax, o limite é calculado pela fórmula com desigualdade, na qual em vez de
Definição O critério de Neumann-Pearson é a regra de escolha de uma alternativa, em que o valor do limite é determinado com base em um determinado valor da probabilidade de um erro do tipo I (α).
O erro tipo 1 ocorre quando a amostra cai na região crítica
O erro do tipo II ocorre quando a amostra está dentro da faixa válida
,
onde
Por sua vez, a probabilidade de um erro do segundo tipo β é determinada a partir da solução da equação integral certa, onde
Definição . O critério de Wald é uma regra para a escolha de uma solução, na qual a razão das funções de verossimilhança é comparada com dois limiares
...
Conclusão
O artigo oferece uma breve visão geral das capacidades da teoria existente de tomada de decisão estatística. São identificados os principais elementos e componentes da teoria, aplicações e modelos. É fornecida uma breve descrição dos elementos nomeados e suas descrições.
Em termos educacionais, é importante saber da existência de tal teoria e, quando surgir a necessidade e tomar consciência da necessidade de tomar decisões, recorrer aos seus fundamentos. Gostaria de salientar que nesta área, assim como na área da educação, todos se consideram (especialmente os pais) bastante competentes.
Mas é justamente pela educação que floresce o alcoolismo e as drogas entre os jovens, e a consequência da subeducação são as decisões tomadas que nos levam ao que temos em nosso país.
Não excluo que novamente alguém será encontrado e diga que a conclusão não é o tópico.
Bibliografia
1. .., .. . -.: . , 1973. – 172.
2. .., .. .- .: , 1996. — 192.
3. .. . – .: .. «», 2005. – 144.
4. /.., .. .–.: , 2000.
5. . . — .: , 1976. – 248.
6. . . –.: , 1978. – 352 .
7. ., . . – .: ,1976.– 416.
8. .. . : / . . [ .]. — .: , 1982.
9. . .– .: ,1987. –608.
10. .. . – .: ,1969. – .
11. . . –.: , 1962. – .
12. .. . – .: – 89, 2003. –352.
13. CCEB-96/011. 1: . 1.0. 96/01/31. E/E. .
14. .. . . — .: ,1989. — 288.
15. .. . — .: ,1998. — 416.
16. – .: ,1953.-
17. . — .: ,1950. — 806.
18. . Z-. — .: , 1971.- 288.
19. FIPS PUB 191, . 9 1994 . E/E.
21. Katzke, Stuart W. ,Phd., “A Framework for Computer Security Risk Management”, NIST, October, 1992.
22. .. . — .: , 1977. — 302.
23. .. - .– .: , 1972. — 117.
24. .. . — .: , 1969. — 160.
25. .., .. . — .: , 1973. — 64.
26. . , . . — .: ,1970. 27. .. . . . — .: , 1995. — 120.
28. . . — .: , 1967. —
29. .. . — .: , 1977. — 30. . . -.: ,1985. —
31. . . — .: , 1989. –
32. . . — .: , 1997. — 376.
2. .., .. .- .: , 1996. — 192.
3. .. . – .: .. «», 2005. – 144.
4. /.., .. .–.: , 2000.
5. . . — .: , 1976. – 248.
6. . . –.: , 1978. – 352 .
7. ., . . – .: ,1976.– 416.
8. .. . : / . . [ .]. — .: , 1982.
9. . .– .: ,1987. –608.
10. .. . – .: ,1969. – .
11. . . –.: , 1962. – .
12. .. . – .: – 89, 2003. –352.
13. CCEB-96/011. 1: . 1.0. 96/01/31. E/E. .
14. .. . . — .: ,1989. — 288.
15. .. . — .: ,1998. — 416.
16. – .: ,1953.-
17. . — .: ,1950. — 806.
18. . Z-. — .: , 1971.- 288.
19. FIPS PUB 191, . 9 1994 . E/E.
21. Katzke, Stuart W. ,Phd., “A Framework for Computer Security Risk Management”, NIST, October, 1992.
22. .. . — .: , 1977. — 302.
23. .. - .– .: , 1972. — 117.
24. .. . — .: , 1969. — 160.
25. .., .. . — .: , 1973. — 64.
26. . , . . — .: ,1970. 27. .. . . . — .: , 1995. — 120.
28. . . — .: , 1967. —
29. .. . — .: , 1977. — 30. . . -.: ,1985. —
31. . . — .: , 1989. –
32. . . — .: , 1997. — 376.