PARA: ORGANIZAÇÕES
PÚBLICAS, ORGANIZAÇÕES PRIVADAS E CIDADÃOS DO BRASIL E DO MUNDO - PARTE 06
========================================================================================================================
Maçonaria Oculta - Decreto Grau 666 - 7º
Nível - 49ª Potência
========================================================================================================================
1.
Tema em Análise - “Gênese Virtual-Algoritmo Integrado Entre
Geometria-Lógica-Matemática-Estatística” - Análise Teórica, Matemática e
Geométrica - Método - Definição de Grupamentos Estatísticos de Análise
Matemática e Estatística - Definição de Níveis Estatísticos de Análise
(Unidades Coletivas Em Níveis Diferentes) - Inclusão de Variáveis de
Crescimento, Decrescimento, Limite Superior e Limite Inferior do Crescimento do
Modelo de Previsão do Comportamento de Sistemas Vivos Utilizando Teorema de
Pitágoras, Seno e Cosseno.
Continuação da Parte 05
73.
Além de traduzir o processo de criação do algoritmo da “GÊNESE VIRTUAL-ALGORÍTIMO INTEGRADO ENTRE
GEOMETRIA-LÓGICA-MATEMÁTICA-ESTATÍSTICA”, acima descrito, deve-se
criar “Agrupamentos de Variáveis”
com comportamentos semelhantes para facilitar o trabalho dos especialistas da
academia que se utilização da ferramenta.
74.
Na
análise de “Agrupamentos” utilizamos
uma variedade de algoritmos de classificação diferentes, para organizar o
universo de variáveis que façam sentido do ponto de vista matemático e
estatístico, em diferentes classes, antes do estabelecimento da significância
estatística.
75.
Há dois
métodos de algoritmos de agrupamento de dados.
76.
Unificação
ou Agrupamento em Árvore: objetiva construir taxonomias (conceito utilizado na
definição de grupos de organismos biológicos) de vários níveis (método de
agrupamento aglomerativo hierárquico.
77.
No
arquivo “Análise de Agrupamentos.pdf”,
em anexo, página 2, em diante, consta exemplo da “Unificação ou Agrupamento em
Árvore”.
Agrupamento por k-Médias (Fonte: página 3, do
arquivo “Análise de Agrupamentos.pdf”, em anexo)
78.
“Este segundo método de Análise de Agrupamentos é um
método de agrupamento não-hierárquico por repartição. Este método de
agrupamento é muito diferente do método de Agrupamento em Árvore.”
79.
“Suponha que você já tem as hipóteses a respeito do número
de conjuntos em seus casos ou variáveis”.
80.
“Você quer informar ao computador para formar exatamente 3
conjuntos que devem ser tão distintos quanto o possível.”
81.
“Este é o tipo de pesquisa que pode ser feita pelo
algoritmo de aglomeramento por k-Médias”.
82.
“O método k-Médias produzirá exatamente k diferentes
conjuntos com a maior distinção possivel entre eles”.
Agrupamento por k-Médias (Fonte: página 4, do
arquivo “Análise de Agrupamentos.pdf”, em anexo)
83.
“Avaliando a Qualidade de um Agrupamento Gerado Um
agrupamento gerado por este algoritmo é único e o melhor para um dado k, e
nenhum mínimo local no processo iterativo é do conhecimento deste autor. Porém,
nem todo agrupamento gerado é útil para efeitos de classificação, pois um
determinado k, por exemplo k=5, pode refletir um número de classes inadequado
para a divisão de uma determinada população de observações”.
84.
“É necessário encontrar o valor de k que melhor reflita a
"divisão natural" da população de dados observada. Para avaliar se
uma classificação é apropriada, pode-se comparar a variância intracluster (que
deverá ser pequena se a divisão em classes for adequada) à variância
inter-clusters (que deverá ser grande se a classificação em categorias for boa)”.
85.
“Isto significa que uma boa divisão de um conjunto de
observações em grupos ou categorias é aquela onde os elementos de uma mesma
categoria são o mais parecidos entre si (menor variância intra-cluster) e onde
os elementos de grupos diferentes são o mais diferentes entre si possível
(variância inter-cluster ou inter-grupos). Isto é dito verificar a robustez dos
grupos de objetos ou categorias geradas”.
86.
“Para tanto, você pode realizar uma análise de variância
padrão inter-grupos. Para um dado k e para cada variável, uma medida de
discriminação entre grupos pode ser dada pelo cálculo das variâncias inter- e
intra-grupos e pelo coeficiente de discriminação F, dado abaixo:
87.
“Pode-se utilizar F como medida da qualidade de um
determinado conjunto de classes como subdivisão natural de um conjunto de dados,
quando não se sabe se para determinado conjunto de dados 2,3 ou 4 classes são o
mais adequado”.
Algoritmo Básico do Método das k-Médias (Fonte:
página 4, do arquivo “Análise de Agrupamentos.pdf”, em anexo)
88.
“Padronize ou
estandardize todos os dados, descrevendo cada variável em termos de distância
de seu valor em desvios-padrão da sua média.
1.Fixa-se o número
de agrupamentos
2. desejado = k;
3. Divida os casos
aleatoriamente nos k grupos;
4. Calcula-se o
centróide de cada grupo;
5. Com os dados padronizados,
calcula-se, para cada caso, a distância euclidiana em relação ao centróide de
cada grupo;
6. Transfira o caso
para o grupo cuja distância ao centróide é mínima;
7. Repita (4), (5)
e (6) até que nenhum caso seja mais transferido.
89.
É
importante registrar alguns conceitos sobre “Taxinomia”, do Universo de
Amostras, considerando que, na prática, ao definirmos a “Taxonomia”, matemática
e estatística dos dados que serão coletados, essa taxonomia se tornará padrão
de mercado, no Brasil e no mundo, em pouco tempo e, assim, essa “Taxônomia” não
pode ser realizada de qualquer forma, senão podemos criar problemas de
usabilidade dos dados pelos professores e doutores, das Universidades, no
Brasil e no mundo.
90.
A Profa.
Lillian Alvares, da Faculdade de Ciência da Informação, da Universidade de
Brasília, recomenda que “O desenvolvimento de uma taxonomia deve ser realizado por
uma equipe multidisciplinar, contando com especialistas de diversas áreas”
(Fonte: http://slideplayer.com.br/slide/1718701/ e arquivo “Aula33Taxonomia.pdf”, em anexo.
91.
Significância Estatística - O que é “Significância
Estatística”? Explicações constam abaixo, extraídas do link http://www.inf.ufsc.br/~marcelo/intro.html, também disponível no arquivo “Significância Estatística.pdf”, em
anexo:
“O que é "significância
estatística" (nível-p)
A significância estatística de
um resultado é uma medida estimada do grau em que este resultado é
"verdadeiro" (no sentido de que seja realmente o que ocorre na
população, ou seja no sentido de "representatividade da população").
Mais tecnicamente, o valor do nível-p representa um índice decrescente da
confiabilidade de um resultado. Quanto mais alto o nível-p, menos se pode
acreditar que a relação observada entre as variáveis na amostra é um indicador
confiável da relação entre as respectivas variáveis na população.
Especificamente, o nível-p representa a probabilidade de erro envolvida em aceitar
o resultado observado como válido, isto é, como "representativo da
população". Por exemplo, um nível-p de 0,05 (1/20) indica que há 5% de
probabilidade de que a relação entre as variáveis, encontrada na amostra, seja
um "acaso feliz". Em outras palavras, assumindo que não haja relação
entre aquelas variáveis na população, e o experimento de interesse seja
repetido várias vezes, poderia-se esperar que em aproximadamente 20 realizações
do experimento haveria apenas uma em que a relação entre as variáveis em
questão seria igual ou mais forte do que a que foi observada naquela amostra
anterior. Em muitas áreas de pesquisa, o nível-p de 0,05 é costumeiramente
tratado como um "limite aceitável" de erro.
Como determinar que um resultado é
"realmente" significante?
Não há meio de evitar arbitrariedade na decisão final de qual nível de significância será tratado como realmente "significante". Ou seja, a seleção de um nível de significância acima do qual os resultados serão rejeitados como inválidos é arbitrária. Na prática, a decisão final depende usualmente de: se o resultado foi previsto a priori ou apenas a posteriori no curso de muitas análises e comparações efetuadas no conjunto de dados; no total de evidências consistentes do conjunto de dados; e nas "tradições" existentes na área particular de pesquisa. Tipicamente, em muitas ciências resultados que atingem nível-p 0,05 são considerados estatisticamente significantes, mas este nível ainda envolve uma probabilidade de erro razoável (5%). Resultados com um nível-p 0,01 são comumente considerados estatisticamente significantes, e com nível-p 0,005 ou nível-p 0,001 são freqüentemente chamados "altamente" significantes. Estas classificações, porém, são convenções arbitrárias e apenas informalmente baseadas em experiência geral de pesquisa. Uma conseqüência óbvia é que um resultado considerado significante a 0,05, por exemplo, pode não sê-lo a 0,01.
Significância estatística e o número de
análises realizadas
Desnecessário dizer quanto mais
análises sejam realizadas em um conjunto de dados, mais os resultados atingirão
"por acaso" o nível de significância convencionado. Por exemplo, ao
calcular correlações entre dez variáveis (45 diferentes coeficientes de
correlação), seria razoável esperar encontrar por acaso que cerca de dois (um
em cada 20) coeficientes de correlação são significantes ao nível-p 0,05, mesmo
que os valores das variáveis sejam totalmente aleatórios, e aquelas variáveis
não se correlacionem na população. Alguns métodos estatísticos que envolvem
muitas comparações, e portanto uma boa chance para tais erros, incluem alguma
"correção" ou ajuste para o número total de comparações. Entretanto,
muitos métodos estatísticos (especialmente análises exploratórias simples de
dados) não oferecem nenhum remédio direto para este problema. Cabe então ao
pesquisador avaliar cuidadosamente a confiabilidade de descobertas não
esperadas.
Força X Confiabilidade de uma relação entre
variáveis
Foi dito anteriormente que
força (magnitude) e confiabilidade são dois aspectos diferentes dos
relacionamentos entre variáveis. Contudo, eles não são totalmente
independentes. Em geral, em uma amostra de um certo tamanho quanto maior a
magnitude da relação entre variáveis, mais confiável a relação.
Assumindo
que não há relação entre as variáveis na população, o resultado mais provável
deveria ser também não encontrar relação entre as mesmas variáveis na amostra
da pesquisa. Assim, quanto mais forte a relação encontrada na amostra menos
provável é a não existência da relação correspondente na população. Então a
magnitude e a significância de uma relação aparentam estar fortemente
relacionadas, e seria possível calcular a significância a partir da magnitude e
vice-versa. Entretanto, isso é válido apenas se o tamanho da amostra é mantido
constante, porque uma relação de certa força poderia ser tanto altamente
significante ou não significante de todo dependendo do tamanho da amostra.
Por que a significância de uma relação entre
variáveis depende do tamanho da amostra?
Se há muito poucas observações
então há também poucas possibilidades de combinação dos valores das variáveis,
e então a probabilidade de obter por acaso uma combinação desses valores que
indique uma forte relação é relativamente alta. Considere-se o seguinte exemplo:
Há
interesse em duas variáveis (sexo: homem, mulher; WCC: alta, baixa) e há apenas
quatro sujeitos na amostra (2 homens e 2 mulheres). A probabilidade de se
encontrar, puramente por acaso, uma relação de 100% entre as duas variáveis
pode ser tão alta quanto 1/8. Explicando, há uma chance em oito de que os dois
homens tenham alta WCC e que as duas mulheres tenham baixa WCC, ou vice-versa,
mesmo que tal relação não exista na população. Agora considere-se a
probabilidade de obter tal resultado por acaso se a amostra consistisse de 100
sujeitos: a probabilidade de obter aquele resultado por acaso seria
praticamente zero.
Observando
um exemplo mais geral. Imagine-se uma população teórica em que a média de WCC
em homens e mulheres é exatamente a mesma. Supondo um experimento em que se
retiram pares de amostras (homens e mulheres) de um certo tamanho da população
e calcula-se a diferença entre a média de WCC em cada par de amostras (supor
ainda que o experimento será repetido várias vezes). Na maioria dos experimento
os resultados das diferenças serão próximos de zero. Contudo, de vez em quando,
um par de amostra apresentará uma diferença entre homens e mulheres
consideravelmente diferente de zero. Com que freqüência isso acontece?
Quanto
menor a amostra em cada experimento maior a probabilidade de obter esses
resultados errôneos, que, neste caso, indicariam a existência de uma relação
entre sexo e WCC obtida de uma população em que tal relação não existe.
Observe-se mais um exemplo ("razão meninos para meninas", Nisbett et
al., 1987):
Há dois
hospitais: no primeiro nascem 120 bebês a cada dia e no outro apenas 12. Em
média a razão de meninos para meninas nascidos a cada dia em cada hospital é de
50/50. Contudo, certo dia, em um dos hospitais nasceram duas vezes mais meninas
do que meninos. Em que hospital isso provavelmente aconteceu? A resposta é
óbvia para um estatístico, mas não tão óbvia para os leigos: é muito mais
provável que tal fato tenha ocorrido no hospital menor. A razão para isso é que
a probabilidade de um desvio aleatório da média da população aumenta com a
diminuição do tamanho da amostra (e diminui com o aumento do tamanho da
amostra).
Por que pequenas relações podem ser provadas
como significantes apenas por grandes amostras?
Os exemplos dos parágrafos
anteriores indicam que se um relacionamento entre as variáveis em questão (na
população) é pequeno, então não há meio de identificar tal relação em um estudo
a não ser que a amostra seja correspondentemente grande. Mesmo que a amostra seja
de fato "perfeitamente representativa" da população o efeito não será
estatisticamente significante se a amostra for pequena. Analogamente, se a
relação em questão é muito grande na população então poderá ser constatada como
altamente significante mesmo em um estudo baseado em uma pequena amostra. Mais
um exemplo:
Se uma
moeda é ligeiramente viciada, de tal forma que quando lançada é ligeiramente
mais provável que ocorram caras do que coroas (por exemplo uma proporção 60%
para 40%). Então dez lançamentos não seriam suficientes para convencer alguém
de que a moeda é viciada, mesmo que o resultado obtido (6 caras e 4 coroas)
seja perfeitamente representativo do viesamento da moeda. Entretanto, dez
lançamentos não são suficientes para provar nada? Não, se o efeito em questão
for grande o bastante, os dez lançamentos serão suficientes. Por exemplo,
imagine-se que a moeda seja tão viciada que não importe como venha a ser
lançada o resultado será cara. Se tal moeda fosse lançada dez vezes, e cada
lançamento produzisse caras, muitas pessoas considerariam isso prova suficiente
de que há "algo errado" com a moeda. Em outras palavras, seria
considerada prova convincente de que a população teórica de um número infinito
de lançamentos desta moeda teria mais caras do que coroas. Assim, se a relação
é grande, então poderá ser considerada significante mesmo em uma pequena
amostra.
Pode uma "relação inexistente" ser
um resultado significante?
Quanto menor a relação entre as
variáveis maior o tamanho de amostra necessário para prová-la significante. Por
exemplo, imagine-se quantos lançamentos seriam necessários para provar que uma
moeda é viciada se seu viesamento for de apenas 0,000001 %! Então, o tamanho
mínimo de amostra necessário cresce na mesma proporção em que a magnitude do
efeito a ser demonstrado decresce. Quando a magnitude do efeito aproxima-se de
zero, o tamanho de amostra necessário para prová-lo aproxima-se do infinito.
Isso quer dizer que, se quase não há relação entre duas variáveis o tamanho da
amostra precisa quase ser igual ao tamanho da população, que teoricamente é
considerado infinitamente grande. A significância estatística representa a
probabilidade de que um resultado similar seja obtido se toda a população fosse
testada. Assim, qualquer coisa que fosse encontrada após testar toda a
população seria, por definição, significante ao mais alto nível possível, e
isso também inclui todos os resultados de "relação inexistente".
Como medir a magnitude (força) das relações
entre variáveis?
Há muitas medidas da magnitude
do relacionamento entre variáveis que foram desenvolvidas por estatísticos: a
escolha de uma medida específica em dadas circunstâncias depende do número de
variáveis envolvidas, níveis de mensuração usados, natureza das relações, etc. Quase
todas, porém, seguem um princípio geral: elas procuram avaliar a relação
comparando-a de alguma forma com a "máxima relação imaginável" entre
aquelas variáveis específicas. Tecnicamente, um modo comum de realizar tais
avaliações é observar quão diferenciados são os valores das variáveis, e então
calcular qual parte desta "diferença global disponível" seria
detectada na ocasião se aquela diferença fosse "comum" (fosse apenas
devida à relação entre as variáveis) nas duas (ou mais) variáveis em questão.
Falando menos tecnicamente, compara-se "o que é comum naquelas
variáveis" com "o que potencialmente poderia haver em comum se as
variáveis fossem perfeitamente relacionadas". Outro exemplo:
Em uma
amostra o índice médio de WCC é igual a 100 em homens e 102 em mulheres. Assim,
poderia-se dizer que, em média, o desvio de cada valor da média de ambos (101)
contém uma componente devida ao sexo do sujeito, e o tamanho desta componente é
1. Este valor, em certo sentido, representa uma medida da relação entre sexo e
WCC. Contudo, este valor é uma medida muito pobre, porque não diz quão
relativamente grande é aquela componente em relação à "diferença
global" dos valores de WCC. Há duas possibilidades extremas:
(a) Se
todos os valore de WCC de homens são exatamente iguais a 100 e os das mulheres
iguais a 102 então todos os desvios da média conjunta na amostra seriam
inteiramente causados pelo sexo. Poderia-se dizer que nesta amostra sexo é
perfeitamente correlacionado a WCC, ou seja, 100% das diferenças observadas entre
os sujeitos relativas a suas WCC's devem-se a seu sexo.
(b) Se
todos os valores de WCC estão em um intervalo de 0 a 1000, a mesma diferença
(de 2) entre a WCC média de homens e mulheres encontrada no estudo seria uma
parte tão pequena na diferença global dos valores que muito provavelmente seria
considerada desprezível. Por exemplo, um sujeito a mais que fosse considerado
poderia mudar, ou mesmo reverter, a direção da diferença. Portanto, toda boa
medida das relações entre variáveis tem que levar em conta a diferenciação
global dos valores individuais na amostra e avaliar a relação em termos
(relativos) de quanto desta diferenciação se deve à relação em questão.
"Formato geral" de muitos testes
estatísticos
Como o objetivo principal de
muitos testes estatísticos é avaliar relações entre variáveis, muitos desses
testes seguem o princípio exposto no item anterior. Tecnicamente, eles
representam uma razão de alguma medida da diferenciação comum nas variáveis em
análise (devido à sua relação) pela diferenciação global daquelas variáveis.
Por exemplo, teria-se uma razão da parte da diferenciação global dos valores de
WCC que podem se dever ao sexo pela diferenciação global dos valores de WCC.
Esta razão é usualmente chamada de razão da variação explicada pela variação
total. Em estatística o termo variação explicada não implica necessariamente
que tal variação é "compreendida conceitualmente". O termo é usado
apenas para denotar a variação comum às variáveis em questão, ou seja, a parte
da variação de uma variável que é "explicada" pelos valores
específicos da outra variável e vice-versa.
Como é calculado o nível de significância
estatístico
Assuma-se que já tenha sido
calculada uma medida da relação entre duas variáveis (como explicado acima). A
próxima questão é "quão significante é esta relação"? Por exemplo,
40% da variação global ser explicada pela relação entre duas variáveis é
suficiente para considerar a relação significante? "Depende".
Especificamente, a significância depende principalmente do tamanho da amostra.
Como já foi explicado, em amostras muito grandes mesmo relações muito pequenas
entre variáveis serão significantes, enquanto que em amostras muito pequenas
mesmo relações muito grandes não poderão ser consideradas confiáveis (significantes).
Assim, para determinar o nível de significância estatística torna-se necessária
uma função que represente o relacionamento entre "magnitude" e
"significância" das relações entre duas variáveis, dependendo do
tamanho da amostra. Tal função diria exatamente "quão provável é obter uma
relação de dada magnitude (ou maior) de uma amostra de dado tamanho, assumindo
que não há tal relação entre aquelas variáveis na população". Em outras
palavras, aquela função forneceria o nível de significância (nível-p), e isso
permitiria conhecer a probabilidade de erro envolvida em rejeitar a idéia de
que a relação em questão não existe na população. Esta hipótese
"alternativa" (de que não há relação na população) é usualmente
chamada de hipótese nula. Seria ideal se a função de probabilidade fosse
linear, e por exemplo, apenas tivesse diferentes inclinações para diferentes
tamanhos de amostra. Infelizmente, a função é mais complexa, e não é sempre
exatamente a mesma. Entretanto, em muitos casos, sua forma é conhecida e isso
pode ser usado para determinar os níveis de significância para os resultados
obtidos em amostras de certo tamanho. Muitas daquelas funções são relacionadas
a um tipo geral de função que é chamada de normal (ou gaussiana).
Por que a distribuição normal é importante?
A "distribuição
normal" é importante porque em muitos casos ela se aproxima bem da função
introduzida no item anterior. A distribuição de muitas estatísticas de teste é
normal ou segue alguma forma que pode ser derivada da distribuição normal.
Neste sentido, filosoficamente, a distribuição normal representa uma das
elementares "verdades acerca da natureza geral da realidade",
verificada empiricamente, e seu status pode ser comparado a uma das leis
fundamentais das ciências naturais. A forma exata da distribuição normal (a
característica "curva do sino") é definida por uma função que tem
apenas dois parâmetros: média e desvio padrão.
Uma
propriedade característica da distribuição normal é que 68% de todas as suas
observações caem dentro de um intervalo de 1 desvio padrão da média, um
intervalo de 2 desvios padrões inclui 95% dos valores, e 99% das observações
caem dentro de um intervalo de 3 desvios padrões da média. Em outras palavras,
em uma distribuição normal as observações que tem um valor padronizado de menos
do que -2 ou mais do que +2 tem uma freqüência relativa de 5% ou menos (valor
padronizado significa que um valor é expresso em termos de sua diferença em
relação à média, dividida pelo desvio padrão).
Ilustração de como a distribuição normal é
usada em raciocínio estatístico (indução)
Retomando o exemplo já
discutido, onde pares de amostras de homens e mulheres foram retirados de uma
população em que o valor médio de WCC em homens e mulheres era exatamente o
mesmo. Embora o resultado mais provável para tais experimentos (um par de
amostras por experimento) é que a diferença entre a WCC média em homens e
mulheres em cada par seja próxima de zero, de vez em quando um par de amostras
apresentará uma diferença substancialmente diferente de zero. Quão
freqüentemente isso ocorre? Se o tamanho da amostra é grande o bastante, os
resultados de tais repetições são "normalmente distribuídos", e
assim, conhecendo a forma da curva normal pode-se calcular precisamente a
probabilidade de obter "por acaso" resultados representando vários
níveis de desvio da hipotética média populacional 0 (zero). Se tal
probabilidade calculada é tão pequena que satisfaz ao critério previamente
aceito de significância estatística, então pode-se concluir que o resultado
obtido produz uma melhor aproximação do que está acontecendo na população do
que a "hipótese nula". Lembrando ainda que a hipótese nula foi
considerada apenas por "razões técnicas" como uma referência contra a
qual o resultado empírico (dos experimentos) foi avaliado.
Todos os testes estatísticos são normalmente
distribuídos?
Não todos, mas muitos são ou
baseados na distribuição normal diretamente ou em distribuições a ela
relacionadas, e que podem ser derivadas da normal, como as distribuições t, F
ou Chi-quadrado (Qui-quadrado). Tipicamente, estes testes requerem que as
variáveis analisadas sejam normalmente distribuídas na população, ou seja, que
elas atendam à "suposição de normalidade". Muitas variáveis
observadas realmente são normalmente distribuídas, o que é outra razão por que
a distribuição normal representa uma "característica geral" da
realidade empírica. O problema pode surgir quando se tenta usar um teste
baseado na distribuição normal para analisar dados de variáveis que não são
normalmente distribuídas. Em tais casos há duas opções. Primeiramente, pode-se
usar algum teste "não paramétrico" alternativo (ou teste "livre
de distribuição"); mas isso é freqüentemente inconveniente porque tais
testes são tipicamente menos poderosos e menos flexíveis em termos dos tipos de
conclusões que eles podem proporcionar. Alternativamente, em muitos casos ainda
se pode usar um teste baseado na distribuição normal se apenas houver certeza
de que o tamanho das amostras é suficientemente grande. Esta última opção é
baseada em um princípio extremamente importante que é largamente responsável
pela popularidade dos testes baseados na distribuição normal. Nominalmente,
quanto mais o tamanho da amostra aumente, mais a forma da distribuição amostral
(a distribuição de uma estatística da amostra) da média aproxima-se da forma da
normal, mesmo que a distribuição da variável em questão não seja normal. Este
princípio é chamado de Teorema Central do Limite.
Como se conhece as conseqüências de violar a
suposição de normalidade?
“Embora
muitas das declarações feitas anteriormente possam ser provadas
matematicamente, algumas não têm provas teóricas e podem demonstradas apenas
empiricamente via experimentos Monte Carlo (simulações usando geração aleatória
de números). Nestes experimentos grandes números de amostras são geradas por um
computador seguindo especificações pré-designadas e os resultados de tais
amostras são analisados usando uma grande variedade de testes. Este é o modo
empírico de avaliar o tipo e magnitude dos erros ou viesamentos a que se expõe
o pesquisador quando certas suposições teóricas dos testes usados não são
verificadas nos dados sob análise. Especificamente, os estudos de Monte Carlo
foram usados extensivamente com testes baseados na distribuição normal para
determinar quão sensíveis eles eram à violações da suposição de que as
variáveis analisadas tinham distribuição normal na população. A conclusão geral
destes estudos é que as conseqüências de tais violações são menos severas do
que se tinha pensado a princípio. Embora estas conclusões não devam
desencorajar ninguém de se preocupar com a suposição de normalidade, elas
aumentaram a popularidade geral dos testes estatísticos dependentes da
distribuição normal em todas as áreas de pesquisa.”
92.
No livro
“Ser e Tempo”,
de Martin Heidegger, Editora Vozes, ISBN 978-85-326-4340-7 e Editora Unicamp,
ISBN 978-85-268-0963-5, páginas 45 a 47, consta o registro abaixo:
“Olhar
para, entender e conceituar, escolher, aceder a são comportamentos
constitutivos do perguntar e assim são eles mesmos modi-de-ser de um determinado ente, do ente que nós, os
perguntantes, somos cada vez nós mesmos. Por conseguinte, elaborar a
questão-do-ser significa tornar transparente um ente – o perguntante – em seu
ser.”
93.
A “Lógica”, a “Geometria”, a “Matemática” e a “Estatística” são entes
materiais, não visíveis, que operam por intermédio do “ente-homem”, mas quando o “Ser”
do “ente-homem” questiona, neste plano, o “Ente-Lógico-Geométrico-Matemático-Estatístico”, sobre a “GÊNESE VIRTUAL-ALGORÍTIMO INTEGRADO ENTRE
GEOMETRIA-LÓGICA-MATEMÁTICA-ESTATÍSTICA”, quem
responde é o “Ser” do “Ente-Lógico-Geométrico-Matemático-Estatístico”.
Parte 01 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo.html
Parte 02 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo_22.html
Parte 03 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo_98.html
Parte 04 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo_73.html
Parte 05 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo_92.html
Parte 06 - Link http://www.rogerounielo.blogspot.com.br/2015/01/genese-virtual-criacao-de-algoritmo_57.html
Atenciosamente,
Brasília-DF, Brasil 13/12/2014
ΣEMΣ EIAAM ABPAΣA
“O Sol Eterno
Abrasax”, o Sol Central Espiritual”
CENTRO CIENTÍFICO
UNIVERSAL PARA O PROGRESSO DA HUMANIDADE
CONSCIÊNCIA CÓSMICA NO
PLANETA TERRA, POR INTERMÉDIO DA CONSCIÊNCIA CRÍSTICA
“SÓ A
FRATERNIDADE E UNIÃO ENTRE OS SERES HUMANOS, DO MUNDO, PODERÁ RESOLVER OS
PROBLEMAS SOCIAIS, AMBIENTAIS, ECONÔMICOS, FINANCEIROS E DE RELACIONAMENTO, DO
PLANETA TERRA. NÃO HÁ IDEOLOGIA SUPERIOR À FRATERNIDADE UNIVERSAL”
"O Ser
Supremo protege os fracos, impede que os fortes exacerbem o mau do seu egoísmo,
em prejuízo ainda maior dos fracos e também protege os próprios
egoístas do seu próprio egoísmo, pois ama todas as criaturas da mesma maneira."
“quando os bons não
se apresentam ao campo de batalha a vitória da injustiça é justa.”.
“O poder que os
homens possuem, no Planeta Terra, serve para nos ensinar que o maior PODER DO
MUNDO é o PODER de dominar-se a si mesmo, que é um PODER MENOR, que te leva ao
PODER MAIOR, QUE É NÃO TER PODER ALGUM, QUE É O MAIOR DE TODOS OS PODERES”.
“ADOREMOS O PAI
UNIVERSAL! SAUDEMOS O SER SUPREMO!
Rogerounielo
Rounielo de França
Mestre Maçon - Loja
Areópago de Brasília nº 3001
Mestre Maçon - Loja
de Pesquisas Maçônicas do GODF nº 3994
Grande Oriente do
Brasil-GOB
Grande Oriente do
Distrito Federal-GODF
Mestre. Loja Uversa
nº 5.342.482.337.666. Filiada ao Grande Oriente de Uversa, jurisdicionada pelo
Sétimo Grande Oriente Super-Universo Orvônton, vinculado ao Reino Estelar do
Universo dos Universos do Tempo e do Espaço (Ilha do Paraíso).
Participante do Centro
Espírita André Luiz-CEAL
Participante do Fórum de Discussão “Segundas Filosóficas” – “http://segundasfilosoficas.org - “Somos capazes de sonhar com um mundo melhor. Seremos também capazes de
projetá-lo e de efetivamente construí-lo?”
Final
Nenhum comentário:
Postar um comentário