Estatística

estatística – Wikilingue – Encydia

Para análise, dados e gráficas sobre Wikipedia, veja-se Wikipedia:Estatísticas.

A estatística é um auxiliar de muitas ciências com base matemática referente à recolección, análise e interpretação de dados, já seja para ajudar na resolução da tomada de decisões ou para explicar condições regulares ou irregulares de algum fenómeno ou estudo aplicado, já seja de forma aleatória ou condicional.

Distribuição normal.

É transversal a uma ampla variedade de disciplinas, desde a física até as ciências sociais, desde as ciências da saúde até o controle de qualidade. Usa-se para a tomada de decisões em áreas de negócios ou instituições governamentais.

A estatística divide-se em dois elementos:

  • A estatística descritiva, que se dedica aos métodos de recolección, descrição, visualização e resumem de dados originados a partir dos fenómenos em estudo. Os dados podem ser resumidos numérica ou graficamente. Exemplos básicos de parámetros estatísticos são: a média e o desvio regular. Alguns exemplos gráficos são: histograma, pirâmide populacional, clústers, etc.
  • A estatística inferencial, que se dedica à geração dos modelos, inferências e predições associadas aos fenómenos em questão tendo em conta a aleatoriedad das observações. Usa-se para modelar padrões nos dados e extrair inferências a respeito da população baixo estudo. Estas inferências podem tomar a forma de respostas a perguntas se/não (prova de hipótese), estimativas de características numéricas (estimativa), prognósticos de futuras observações, descrições de associação (correlação) ou modelamiento de relações entre variáveis (análises de regresión). Outras técnicas de modelamiento incluem anova, séries de tempo e minería de dados.

Ambas ramos (descritiva e inferencial) compreendem a estatística aplicada. Há também uma disciplina chamada estatística matemática, a qual se refere às bases teóricas da matéria. A palavra «estatísticas» também se refere ao resultado de aplicar um algorítmo estatístico a um conjunto de dados, como em estatísticas económicas, estatísticas criminosas, etc.

Conteúdo

Etimología

O termo alemão statistik, que foi primeiramente introduzido por Gottfried Achenwall (1749), designava originalmente a análise de dados do Estado, isto é, a “ciência do Estado” (também telefonema aritmética política de sua tradução directa do inglês). Não foi até o século XIX quando o termo estatística adquiriu o significado de colectar e classificar dados. Este conceito foi introduzido pelo inglês John Sinclair.

Em sua origem, por tanto, a Estatística esteve associada aos Estados, para ser utilizados pelo governo e corpos administrativos (com frequência centralizados). A colecção de dados a respeito de estados e localidades continua amplamente através dos serviços de estatística nacionais e internacionais. Em particular, os censos fornecem informação regular a respeito da população.

Já se utilizavam representações gráficas e outras medidas em peles, rochas, paus de madeira e paredes de grutas para controlar o número de pessoas, animais ou certas mercadorias. Para o ano 3000 a. C. os babilonios usavam já pequenos envases moldados de arcilla para reunir dados sobre a produção agrícola e dos géneros vendidos ou mudados. Os egípcios analisavam os dados da população e a renda do país muito dantes de construir as pirâmides no século XI a. C. Os livros bíblicos de Números e Crónicas incluem em algumas partes trabalhos de estatística. O primeiro contém dois censos da população de Israel e o segundo descreve o bem-estar material das diversas tribos judias. Na China existiam registos numéricos similares anteriormente ao ano 2000 a. C. Os antigos gregos realizavam censos cuja informação se utilizava para o 594 a. C. para cobrar impostos.

Origens em probabilidade

Os métodos estatístico-matemáticos emergiram desde a teoria de probabilidade, a qual data desde a correspondência entre Blaise Pascal e Pierre de Fermat (1654). Christian Huygens (1657) dá o primeiro tratamento científico que se conhece à matéria. O Ars coniectandi (póstumo, 1713) de Jakob Bernoulli e a Doutrina de possibilidades (1718) de Abraham de Moivre estudaram a matéria como um ramo das matemáticas.[1] Em era-a moderna, o trabalho de Kolmogórov tem sido um pilar na formulación do modelo fundamental da Teoria de Probabilidades, o qual é usado através da estatística.

A teoria de erros pode-se remontar à Ópera miscellánea (póstuma, 1722) de Roger Cotes e ao trabalho preparado por Thomas Simpson em 1755 (impresso em 1756) o qual aplica pela primeira vez a teoria da discussão de erros de observação. A reimpresión (1757) deste trabalho inclui o axioma de que erros positivos e negativos são igualmente prováveis e que há uns verdadeiros limites asignables dentro dos quais se encontram todos os erros; descrevem-se erros contínuos e uma curva de probabilidade.

Pierre-Simon Laplace (1774) faz a primeira tentativa de deduzir uma regra para a combinação de observações desde os princípios da teoria de probabilidades. Laplace representou a lei de probabilidades de erros mediante uma curva e deduziu uma fórmula para a média de três observações. Também, em 1871, obtém a fórmula para a lei de facilidade do erro (termo introduzido por Lagrange , 1744) mas com equações inmanejables. Daniel Bernoulli (1778) introduz o princípio do máximo produto das probabilidades de um sistema de erros concorrentes.

Fotografia de Ceres pelo telescópio espacial Hubble. A posição foi estimada por Gauss mediante o método de mínimos quadrados.

O método de mínimos quadrados, o qual foi usado para minimizar os erros em medidas, foi publicado independentemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), e Carl Friedrich Gauss (1809). Gauss tinha usado o método em sua famosa predição da localização do planeta anão Ceres em 1801. Provas adicionais foram escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) e Morgan Crofton (1870). Outros contribuidores foram Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) e Giovanni Schiaparelli (1875). A fórmula de Peters para , o provável erro de uma observação simples é bem conhecido.

No século XIX inclui autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion e Karl Pearson. Augustus De Morgan e George Boole melhoraram a apresentação da teoria. Adolphe Quetelet (1796-1874), foi outro importante fundador da estatística e quem introduziu a noção do «homem média» (l’homme moyen) como um médio de entender os fenómenos sociais complexos tais como taxas de criminalidade, taxas de casal ou taxas de suicídios.

Estado actual

Durante o século XX, a criação de instrumentos precisos para assuntos de saúde pública (epidemiología, bioestadística, etc.) e propósitos económicos e sociais (taxa de desemprego, econometría, etc.) precisou de avanços substanciais nas práticas estatísticas.

Hoje o uso da estatística estendeu-se para além de suas origens como um serviço ao Estado ou ao governo. Pessoas e organizações usam a estatística para entender dados e tomar decisões em ciências naturais e sociais, medicina, negócios e outras áreas. A estatística é entendida geralmente não como uma sub-área das matemáticas senão como uma ciência diferente «aliada». Muitas universidades têm departamentos académicos de matemáticas e estatística separadamente. A estatística ensina-se em departamentos tão diversos como psicologia, educação e saúde pública.

Regresión linear – Gráficos de dispersión em estatística.

Ao aplicar a estatística a um problema científico, industrial ou social, começa-se com um processo ou população a ser estudado. Esta pode ser a população de um país, de grãos cristalizados em uma rocha ou de bens manufacturados por uma fábrica em particular durante um período dado. Também poderia ser um processo observado em vários instantes e os dados recolhidos desta maneira constituem uma série de tempo.

Por razões práticas, em lugar de compilar dados de uma população inteira, usualmente estuda-se um subconjunto seleccionado da população, chamado mostra. Dados a respeito da mostra são recolhidos de maneira observacional ou experimental. Os dados são então analisados estatisticamente o qual segue dois propósitos: descrição e inferência.

O conceito de correlação é particularmente valioso. Análises estatísticas de um conjunto de dados pode revelar que dois variáveis (isto é, duas propriedades da população baixo consideração) tendem a variar conjuntamente, como se tivesse uma conexão entre elas. Por exemplo um estudo do rendimento anual e a idade de morte entre pessoas poderia resultar em que pessoas pobres tendem a ter vidas mais curtas que pessoas de maior rendimento. As duas variáveis dizem-se a ser correlacionadas. No entanto, não se pude inferir imediatamente a existência de uma relação de causalidad entre as duas variáveis. O fenómeno correlacionado poderia ser a causa de um terceiro, previamente não considerado, chamado variável confundida.

Se a mostra é representativa da população, inferências e conclusões feitas na mostra podem ser estendidas à população completa. Um problema maior é o de determinar que tão representativa é a mostra extraída. A estatística oferece medidas para estimar e corrigir por aleatoriedad na mostra e no processo de recolección dos dados, bem como métodos para desenhar experimentos robustos como primeira medida, ver desenho experimental.

O conceito matemático fundamental empregado para entender a aleatoriedad é o de probabilidade. A estatística matemática (também chamada teoria estatística) é o ramo das matemáticas aplicadas que usa a teoria de probabilidades e a análise matemática para examinar as bases teóricas da estatística.

O uso de qualquer método estatístico é válido sozinho quando o sistema ou população baixo consideração satisfaz os supostos matemáticos do método. O mau uso da estatística pode produzir sérios erros na descrição e interpretação, afectando as políticas sociais, a prática médica e a qualidade de estruturas tais como pontes e plantas de reacção nuclear.

Inclusive quando a estatística é correctamente aplicada, os resultados podem ser dificilmente interpretados por um inexperto. Por exemplo, o significado estatístico de uma tendência nos dados, que mede o grau ao qual a tendência pode ser causada por uma variação aleatória na mostra, pode não estar de acordo com o sentido intuitivo. O conjunto de habilidades estatísticas básicas (e o escepticismo) que uma pessoa precisa para manejar informação no dia a dia se refere como «cultura estatística».

Métodos estatísticos

Estudos experimentales e observacionales

Um objectivo comum para um projecto de investigação estatística é pesquisar a causalidad, e em particular extrair uma conclusão no efeito que algumas mudanças nos valores de predictores ou variáveis independentes têm sobre uma resposta ou variáveis dependentes. Há dois grandes tipos de estudos estatísticos para estudar causalidad: estudos experimentales e observacionales. Em ambos tipos de estudos, o efeito das diferenças de uma variável independente (ou variáveis) no comportamento de uma variável dependente é observado. A diferença entre os dois tipos é a forma em que o estudo é conduzido. A cada um deles pode ser muito efectivo.

Um estudo experimental implica tomar medidas do sistema baixo estudo, manipular o sistema e depois tomar medidas adicionais usando o mesmo procedimento para determinar se a manipulação tem modificado os valores das medidas. Em contraste, um estudo observacional não precisa manipulação experimental. Pelo contrário, os dados são recolhidos e as correlações entre predictores e a resposta são pesquisadas.

Um exemplo de um estudo experimental é o famoso experimento de Hawthorne o qual pretendia provar mudanças no ambiente de trabalho na planta Hawthorne da Western Electric Company. Os pesquisadores estavam interessados em se ao incrementar a iluminação em um ambiente de trabalho, a produção dos trabalhadores aumentava. Os pesquisadores primeiro mediram a produtividade da planta e depois modificaram a iluminação em uma área da planta para ver se mudanças na iluminação afectariam a produtividade. A produtividade melhorou baixo todas as condições experimentales. No entanto, o estudo foi muito criticado por erros nos procedimentos experimentales, especificamente a falta de um grupo controle e rastreamento.

Um exemplo de um estudo observacional é um estudo que explora a correlação entre fumar e o cancro de pulmão. Este tipo de estudo normalmente usa uma encuesta para recolher observações a respeito da área de interesse e depois produz uma análise estatística. Neste caso, os pesquisadores recolheriam observações de fumadores e não fumadores e depois olhariam os casos de cancro de pulmão em ambos grupos.

Os passos básicos para um experimento são:

  • Planejamento estatístico da investigação, o qual inclui encontrar fontes de informação, selecção de material disponível na área e considerações éticas para a investigação e o método proposto. Propõe-se um problema de estudo,
  • Desenhar o experimento concentrando no modelo e a interacção entre variáveis independentes e dependentes. Realiza-se um muestreo consistente na recolección de dados referentes ao fenómeno ou variável que desejamos estudar. Propõe-se um modelo de probabilidade, cujos parámetros estimam-se mediante estatísticos a partir dos dados de muestreo. No entanto, mantém-se o que se denominam «hipóteses sustentadas» (que não são submetidas a verificação). Valida-se o modelo comparando-o com o que sucede na realidade. Utiliza-se métodos estatísticos conhecidos como teste de hipótese ou prova de significação.
  • Produzem-se estatísticas descritivas.
  • Inferência estatística. Chega-se a um consenso a respeito de que dizem as observações a respeito do mundo que observamos.
  • Utiliza-se o modelo validado para tomar decisões ou predizer acontecimentos futuros. Produz-se um reporte final com os resultados do estudo.

Níveis de medida

Há quatro tipos de medidas ou escalas de medida em estatística. Os quatro tipos de níveis de medida (nominal, ordinal, intervalo e razão) têm diferentes graus de uso na investigação estatística. As medidas de razão, em onde um valor zero e distâncias entre diferentes medidas são definidas, dão a maior flexibilidade em métodos estatísticos que podem ser usados para analisar os dados. As medidas de intervalo têm distâncias interpretables entre medidas, mas um valor zero sem significado (como as medidas de coeficiente intelectual ou temperatura em graus Celsius). As medidas ordinales têm imprecisas diferenças entre valores consecutivos, mas uma ordem interpretable para seus valores. As medidas nominais não têm nenhuma faixa interpretable entre seus valores.

A escala de medida nominal, pode considerar-se a escala de nível mais baixo. Trata-se de agrupar objectos em classes. A escala ordinal, por sua vez, recorre à propriedade de ordem» dos números. A escala de intervalos iguais está caracterizada por uma unidade de medida comum e constante. É importante destacar que o ponto zero nas escalas de intervalos iguais é arbitrário, e não reflete em nenhum momento ausência da magnitude que estamos a medir. Esta escala, além de possuir as características da escala ordinal, permite determinar a magnitude dos intervalos (distância) entre todos os elementos da escala. A escala de coeficientes ou Razões é o nível de medida mais elevado e diferencia-se das escalas de intervalos iguais unicamente por possuir um ponto zero próprio como origem; isto é que o valor zero desta escala significa ausência da magnitude que estamos a medir. Se observa-se uma carência total de propriedade, dispõe-se de uma unidade de medida para o efeito. A iguais diferenças entre os números atribuídos correspondem iguais diferenças no grau de atributo presente ao objecto de estudo.

Técnicas de análise estatístico

Alguns testes e procedimentos para investigação de observações bem conhecidos são:

  • Prova t de Student
  • Prova de χ²
  • Análise de varianza (ANOVA)
  • Ou de Mann-Whitney
  • Análise de regresión
  • Correlação
  • Iconografía das correlações
  • Frequência estatística
  • Análise de frequência acumulada
  • Prova da diferença menos significante de Fisher
  • Coeficiente de correlação produto momento de Pearson
  • Coeficiente de correlação de faixas de Spearman
  • Análise factorial exploratorio
  • Análise factorial confirmatorio

Disciplinas especializadas

Alguns campos de investigação usam a estatística tão extensamente que têm terminología especializada. Estas disciplinas incluem:

  • Ciências actuariales
  • Física estatística
  • Estatística industrial
  • Estatística Espacial
  • Matemáticas Estatística
  • Estatística em Medicina
  • Estatística em Medicina Veterinária e Zootecnia
  • Estatística em Nutrición
  • Estatística em Agronomía
  • Estatística em Planejamento
  • Estatística em Investigação
  • Estatística em Restauração de Obras
  • Estatística em Literatura
  • Estatística em Astronomia
  • Estatística na Antropologia (Antropometría)
  • Estatística em História
  • Estatística militar
  • Geoestadística
  • Bioestadística
  • Estatísticas de Negócios
  • Estatística Computacional
  • Estatística nas Ciências da Saúde
  • Investigação de Operações
  • Estatísticas de Consultoría
  • Estatística da educação, o ensino, e a formação
  • Estatística na comercialização ou mercadotecnia
  • Cienciometría
  • Estatística do Médio Ambiente
  • Estatística em Epidemiología
  • Minería de dados (aplica estatística e reconhecimento de padrões para o conhecimento de dados)
  • Econometría (Estatística económica)
  • Estatística em Engenharia
  • Geografia e Sistemas de informação geográfica, mais especificamente em Análise espacial
  • Demografía
  • Estatística em psicologia (Psicometría)
  • Qualidade e produtividade
  • Estatísticas sociais (para todas as ciências sociais)
  • Cultura estatística
  • Encuestas por Muestreo
  • Análise de processos e quimiometría (para análise de dados em química analítica e engenharia química)
  • Confiabilidad estatística
  • Processamento de imagens
  • Estatísticas Desportivas

A estatística é uma ferramenta básica em negócios e produção. É usada para entender a variabilidad de sistemas de medida, controle de processos (como em controle estatístico de processos ou SPC (CEP)), para compilar dados e para tomar decisões. Nestas aplicações é uma ferramenta finque, e provavelmente a única ferramenta disponível.

Computação estatística

O rápido e sustentado incremento no poder de cálculo da computação desde a segunda metade do século XX tem tido um substancial impacto na prática da ciência estatística. Velhos modelos estatísticos foram quase sempre da classe dos modelos lineares. Agora, complexos computadores junto com apropriados algorítmos numéricos, têm causado um renacer do interesse em modelos não lineares (especialmente redes neuronales e árvores de decisão) e a criação de novos tipos tais como modelos lineares generalizados e modelos multinivel.

O incremento no poder computacional também tem levado ao crescimento em popularidade de métodos intensivos computacionalmente baseados em remuestreo, tais como testes de permutación e de bootstrap , enquanto técnicas como o muestreo de Gibbs têm feito os métodos bayesianos mais acessíveis. A revolução em computadores tem envolvimentos no futuro da estatística, com um novo énfasis em estatísticas «experimentales» e «empíricas». Um grande número de pacotes estatísticos está agora disponível para os pesquisadores. Os sistemas dinâmicos e teoria do caos, desde faz uma década, começaram a interessar na comunidade hispana, pois na anglosajona dos Estados Unidos estava já estabelecida a «conduta caótica em sistemas dinâmicos não lineares» com 350 livros para 1997 e começavam alguns trabalhos nos campos das ciências sociais e em aplicações da física. Também se estava a contemplar seu uso em analítica.

Críticas à estatística

Há uma percepción geral de que o conhecimento estatístico é intencionada e demasiado frequentemente mau usado, encontrando maneiras de interpretar os dados que sejam favoráveis ao presentador. Um dito famoso, ao que parece de Benjamin Disraeli,[2] é: «Há três tipos de mentiras: mentiras pequenas, mentiras grandes e estatísticas». O popular livro How to envolva with statistics (‘como mentir com as estatísticas’) de Darrell Huff discute muitos casos de mau uso da estatística, com énfasis em gráficas malintencionadas. Ao escolher (ou recusar ou modificar) uma certa mostra, os resultados podem ser manipulados; eliminando outliers por exemplo. Leste pode ser o resultado de fraudes ou sesgos intencionales por parte do pesquisador. Lawrence Lowell (decano da Universidade de Harvard) escreveu em 1909 que as estatísticas, «como alguns pasteles, são boas se se sabe quem as fez e se está seguro dos ingredientes».

Alguns estudos contradizem resultados obtidos previamente, e a população começa a duvidar na veracidad de tais estudos. Poder-se-ia ler que um estudo diz (por exemplo) que «fazer X reduz a pressão sanguínea», seguido por um estudo que diz que «fazer X não afecta a pressão sanguínea», seguido por outro que diz que «fazer X incrementa a pressão sanguínea». Com frequência os estudos fazem-se seguindo diferentes metodologías, ou estudos em mostras pequenas que prometem resultados maravilhosos que não são obtenibles em estudos de maior tamanho. No entanto, muitos leitores não notam tais diferenças, e os meios de comunicação simplificam a informação ao redor do estudo e a desconfiança do público começa a crescer.

No entanto, as críticas mais fortes vêm do facto que a aproximação de provas de hipótese, amplamente usada em muitos casos requeridos por lei ou regulamentação, obrigam uma hipótese a ser favorecida’ (a hipótese nula), e pode também exagerar a importância de pequenas diferenças em estudos grandes. Uma diferença que é altamente significativa pode ser de nenhuma significancia prática.

Veja-se também críticas de prova de hipótese e controvérsia da hipótese nula.

Nos campos da psicologia e a medicina, especialmente com respeito à aprovação de novas drogas pela Food and Drug Administration, críticas da aproximação de prova de hipótese incrementaram-se nos anos recentes. Uma resposta tem sido um grande énfasis no p-valor em vez de simplesmente reportar se a hipótese foi recusada ao nível de significancia dado. De novo, no entanto, isto resume a evidência para um efeito mas não o tamanho do efeito. Uma possibilidade é reportar intervalos de confiança, já que estes indicam o tamanho do efeito e a incerteza. Isto ajuda a interpretar os resultados, como o intervalo de confiança para um dado indicando simultaneamente a significancia estatística e o efeito de tamanho.

O p valor e os intervalos de confiança são baseados nos mesmos cálculos fundamentais como aqueles para as correspondentes provas de hipótese. Os resultados são apresentados em um formato mais detalhado, em lugar do se-ou-não das provas de hipótese e com a mesma metodología estatística.

Outro tipo de aproximação é o uso de métodos bayesianos. Esta aproximação tem sido, no entanto, também criticada.

O forte desejo de ver boas drogas aprovadas e o de ver drogas perigosas ou de pouco uso sendo recusadas cria tensões e conflitos (erros tipo I e II na linguagem de provas de hipótese).

Estatísticos famosos

  • Thomas Bayes
  • Pafnuti Chebyshov
  • Sir David Cox
  • Gertrude Cox
  • George Dantzig
  • René Descartes
  • W. Edwards Deming
  • Bruno de Finetti
  • Sir Ronald Fisher
  • Sir Francis Galton
  • Carl Friedrich Gauss
  • William Sealy Gosset
  • Andréi Kolmogórov
  • Aleksandr Lyapunov
  • Abraham De Moivre
  • Sir Isaac Newton
  • Jerzy Neyman
  • Florence Nightingale
  • Blaise Pascal
  • George Box
  • Karl Pearson
  • Adolphe Quetelet
  • C. R. Rao
  • Walter Shewhart
  • Charles Spearman
  • John Tukey

Notas

  1. Ver o trabalho de Ian Hacking em The emergence of probability para uma história do desenvolvimento do conceito de probabilidade matemática.
  2. Cf. Damned envolvas and statistics: untangling numbers from the média, politicians, and activists, do professor Joel Best. Best atribui este dito a Disraeli , e não a Mark Twain ou outros autores como se crê popularmente.

Bibliografía

  • Best, Joel (2001). Damned Envolvas and Statistics: Untangling Numbers from the Média, Politicians, and Activists, University of Califórnia Press. ISBN 0-520-21978-3.
  • Desrosières, Alain (2004). The Politics of Large Numbers: A History of Statistical Reasoning, Camille Naish (trad.), Harvard University Press. ISBN 0-674-68932-1.
  • Hacking, Ian (1990). The Taming of Chance, Cambridge University Press. ISBN 0-521-38884-8.
  • Lindley, D. V. (1985). Making Decisions, 2.ª edição edição, John Wiley & Sons. ISBN 0-471-90808-8.
  • Stigler, Stephen M. (1990). The History of Statistics: The Measurement of Uncertainty before 1900, Belknap Press/Harvard University Press. ISBN 0-674-40341-X.
  • Tijms, Henk (2004). Understanding Probability: Chance Rules in Everyday life, Cambridge University Press. ISBN 0-521-83329-9.
  • Volle, Michel (1984). Lhe métier de statisticien, 2.ª ed. edição, Económica. ISBN 2-7178-0824-8.

Enlaces externos

Wikcionario

  • Colabora en Wikcionario Wikcionario tem definições para estatística.ckb:ئامار

Obtido de http://ks312095.kimsufi.com../../../../articles/c/ou/m/Comunicações_de_Andorra_46cf.html“