Thursday 7 December 2017

Autoregressive moving average python no Brasil


Média de Mudança Autoregressiva Modelos de ARMA (p, q) para análise de séries temporais - Parte 1 No último artigo, analisamos caminhadas aleatórias e ruído branco como modelos de séries temporais básicas para certos instrumentos financeiros, como preços diários de patrimônio e índice de ações. Descobrimos que, em alguns casos, um modelo de caminhada aleatória era insuficiente para capturar o comportamento de autocorrelação total do instrumento, o que motiva modelos mais sofisticados. Nos próximos dois artigos, vamos discutir três tipos de modelos, ou seja, o modelo Autoregressivo (AR) da ordem p, o modelo de ordem média móvel (MA) da ordem e o modelo de ordem média auto-passiva (ARMA) da ordem p , Q. Esses modelos nos ajudarão a tentar capturar ou explicar mais a correlação serial presente dentro de um instrumento. Em última análise, eles nos fornecerão um meio de prever os preços futuros. No entanto, é bem sabido que as séries temporais financeiras possuem uma propriedade conhecida como aglomeração de volatilidade. Ou seja, a volatilidade do instrumento não é constante no tempo. O termo técnico para este comportamento é conhecido como heterocedasticidade condicional. Uma vez que os modelos AR, MA e ARMA não são condicionalmente heterossejidos, isto é, eles não levam em consideração a acumulação de volatilidade, acabaremos por precisar de um modelo mais sofisticado para nossas previsões. Tais modelos incluem o modelo Heteroskedastic Condicional Autogressivo (ARCH) e o modelo Heteroskedastic condicional autogressivo generalizado (GARCH), e suas muitas variantes. O GARCH é particularmente conhecido em financiamento quantitativo e é usado principalmente para simulações de séries temporais financeiras como meio de estimar o risco. No entanto, como em todos os artigos QuantStart, quero construir esses modelos a partir de versões mais simples para que possamos ver como cada nova variante altera nossa capacidade preditiva. Apesar de AR, MA e ARMA serem modelos de séries temporais relativamente simples, eles são a base de modelos mais complicados, como a média móvel autoregressiva (ARIMA) e a família GARCH. Por isso, é importante estudá-los. Uma das nossas primeiras estratégias de negociação na série de artigos da série temporal será combinar ARIMA e GARCH para prever antecipadamente os preços n. No entanto, teremos que esperar até discutirmos tanto ARIMA e GARCH separadamente antes de aplicá-los a uma estratégia real. Como vamos prosseguir Neste artigo, vamos descrever alguns novos conceitos de séries temporais que bem precisam dos métodos restantes, ou seja, rigorosos Estacionária e o critério de informação Akaike (AIC). Subsequentemente a esses novos conceitos, seguiremos o padrão tradicional para o estudo de novos modelos de séries temporais: Justificação - A primeira tarefa é fornecer uma razão pela qual eles estavam interessados ​​em um modelo particular, como quants. Por que estamos apresentando o modelo da série temporal. Que efeitos podem capturar? O que ganhamos (ou perdemos), adicionando uma complexidade extra. Definição - Precisamos fornecer a definição matemática completa (e notação associada) do modelo da série temporal para minimizar Qualquer ambiguidade. Propriedades de segunda ordem - Vamos discutir (e, em alguns casos, derivar) as propriedades de segunda ordem do modelo da série temporal, que inclui a média, a variância e a função de autocorrelação. Correlograma - Usaremos as propriedades de segunda ordem para plotar um correlograma de uma realização do modelo da série temporal para visualizar seu comportamento. Simulação - Vamos simular as realizações do modelo da série temporal e, em seguida, ajustar o modelo a essas simulações para garantir que possamos implementações precisas e entender o processo de montagem. Dados financeiros reais - Vamos ajustar o modelo da série temporal aos dados financeiros reais e considerar o correlograma dos resíduos para ver como o modelo conta a correlação serial na série original. Previsão - Vamos criar previsões n-passo a frente do modelo da série temporal para realizações específicas, a fim de produzir sinais de negociação em última análise. Quase todos os artigos que escrevo em modelos de séries temporais cairão nesse padrão e nos permitirão comparar facilmente as diferenças entre cada modelo à medida que adicionamos mais complexidade. Começamos por analisar a estacionária rigorosa e a AIC. Estritamente estacionário Nós fornecemos a definição de estacionaria no artigo sobre a correlação em série. No entanto, porque vamos entrar no reino de muitas séries financeiras, com várias freqüências, precisamos garantir que nossos (eventuais) modelos levem em consideração a volatilidade variável no tempo dessas séries. Em particular, precisamos considerar sua heterocedasticidade. Encontraremos esse problema quando tentarmos ajustar certos modelos a séries históricas. Geralmente, nem toda a correlação em série nos resíduos de modelos ajustados pode ser contabilizada sem levar em consideração a heterocedasticidade. Isso nos leva de volta à estacionança. Uma série não é estacionária na variância se tiver volatilidade variável no tempo, por definição. Isso motiva uma definição mais rigorosa de estacionaria, a saber, a estacionalização rigorosa: Estritamente Estruturado Série A modelo de série temporal, é estritamente estacionário se a distribuição estatística conjunta dos elementos x, ldots, x é a mesma que a de xm, ldots, xm, Forall ti, m. Pode-se pensar nessa definição como simplesmente que a distribuição da série temporal é inalterada para qualquer mudança abrupta no tempo. Em particular, a média e a variância são constantes no tempo para uma série estritamente estacionária e a autocovariância entre xt e xs (digamos) depende apenas da diferença absoluta de t e s, t-s. Nós estaremos revendo estritamente séries estacionárias em postagens futuras. O Critério de Informação Akaike mencionado em artigos anteriores que eventualmente precisamos considerar como escolher entre os melhores modelos separados. Isso é verdade não só da análise de séries temporais, mas também da aprendizagem por máquinas e, mais amplamente, das estatísticas em geral. Os dois métodos principais que usaremos (por enquanto) são o Critério de Informação Akaike (AIC) e o Critério Bayesiano de Informação (à medida que avançamos com nossos artigos sobre Estatísticas Bayesianas). Bem, considere brevemente o AIC, pois será usado na Parte 2 do artigo ARMA. AIC é essencialmente uma ferramenta para auxiliar na seleção do modelo. Ou seja, se tivermos uma seleção de modelos estatísticos (incluindo séries temporais), o AIC estima a qualidade de cada modelo em relação aos outros que temos disponível. Baseia-se na teoria da informação. Que é um tópico muito interessante e profundo que, infelizmente, não podemos entrar em detalhes demais. Ele tenta equilibrar a complexidade do modelo, o que, nesse caso, significa o número de parâmetros, com o quão adequado se ajusta aos dados. Permite fornecer uma definição: Critério de Informação de Akaike Se tomarmos a função de verossimilhança para um modelo estatístico, que tem parâmetros k, e L maximiza a probabilidade. Então o Critério de Informação Akaike é dado por: O modelo preferido, a partir de uma seleção de modelos, possui o mínimo AIC do grupo. Você pode ver que o AIC cresce à medida que o número de parâmetros, k, aumenta, mas é reduzido se a probabilidade de log negativa aumentar. Essencialmente, penaliza modelos que são superados. Vamos criar modelos AR, MA e ARMA de diferentes ordens e uma maneira de escolher o melhor modelo que se encaixa em um conjunto de dados específico é usar o AIC. Isto é o que bem estar fazendo no próximo artigo, principalmente para os modelos ARMA. Autoregressivo (AR) Modelos de ordem p O primeiro modelo foi considerado, que é a base da Parte 1, é o modelo Autoregressivo da ordem p, muitas vezes encurtado para AR (p). No artigo anterior consideramos a caminhada aleatória. Onde cada termo, xt é dependente unicamente do termo anterior, x e um termo estocástico de ruído branco, wt: O modelo autorregressivo é simplesmente uma extensão da caminhada aleatória que inclui termos mais atrasados ​​no tempo. A estrutura do modelo é linear. Esse é o modelo depende linearmente dos termos anteriores, com coeficientes para cada termo. É aí que o regressivo vem de autoregressivo. É essencialmente um modelo de regressão onde os termos anteriores são os preditores. Modelo Autoregressivo de ordem p Um modelo de série temporal,, é um modelo de ordem autoregressivo p. AR (p), se: begin xt alpha1 x ldots alphap x wt sum p alphai x wt end Onde é o ruído branco e alphai em mathbb, com alphap neq 0 para um processo autorregressivo de ordem p. Se considerarmos o Operador de Deslocamento para trás. (Veja o artigo anterior), então podemos reescrever o acima como uma função theta de: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Talvez a primeira coisa a notar sobre o modelo AR (p) É que uma caminhada aleatória é simplesmente AR (1) com alfa1 igual à unidade. Como afirmamos acima, o modelo autogressivo é uma extensão da caminhada aleatória, então isso faz sentido. É direto fazer previsões com o modelo AR (p), para qualquer momento t, uma vez que temos os coeficientes de alphai determinados, nossa estimativa Simplesmente se torna: começar o chapéu t alpha1 x ldots alphap x end Assim, podemos fazer previsões n-passo a frente produzindo chapéu, chapéu, chapéu, etc. até o chapéu. Na verdade, uma vez que consideremos os modelos ARMA na Parte 2, usaremos a função de predição R para criar previsões (juntamente com bandas de intervalo de confiança de erro padrão) que nos ajudarão a produzir sinais comerciais. Stationarity para processos autoregressivos Um dos aspectos mais importantes do modelo AR (p) é que nem sempre é estacionário. De fato, a estacionariedade de um modelo particular depende dos parâmetros. Eu já toquei isso antes em um artigo anterior. Para determinar se um processo AR (p) está parado ou não, precisamos resolver a equação característica. A equação característica é simplesmente o modelo autorregressivo, escrito em forma de deslocamento para trás, definido como zero: resolvemos essa equação. Para que o processo autoregressivo particular seja estacionário, precisamos que todos os valores absolutos das raízes dessa equação excedam a unidade. Esta é uma propriedade extremamente útil e nos permite calcular rapidamente se um processo AR (p) está parado ou não. Vamos considerar alguns exemplos para tornar esta idéia concreta: Random Walk - O processo AR (1) com alpha1 1 tem a equação característica theta 1 -. Claramente, isso tem a raiz 1 e, como tal, não é estacionário. AR (1) - Se escolhermos alpha1 frac, obtemos xt frac x wt. Isso nos dá uma equação característica de 1 - frac 0, que tem uma raiz 4 gt 1 e, portanto, este processo AR particular (1) é estacionário. AR (2) - Se formamos alpha1 alpha2 frac, obtemos xt frac x frac x wt. Sua equação característica torna-se - frac () () 0, que dá duas raízes de 1, -2. Uma vez que esta tem uma unidade de raiz é uma série não estacionária. No entanto, outras séries AR (2) podem ser estacionárias. Propriedades de segunda ordem A média de um processo AR (p) é zero. No entanto, as autocovariâncias e autocorrelações são dadas por funções recursivas, conhecidas como as equações de Yule-Walker. As propriedades completas são dadas abaixo: begin mux E (xt) 0 end begin gammak soma p alphai gamma, enspace k 0 end begin rhok soma p alphai rho, enspace k 0 end Observe que é necessário conhecer os valores dos parâmetros alphai antes de Calculando as autocorrelações. Agora que declaramos as propriedades da segunda ordem, podemos simular várias ordens de AR (p) e traçar os correlogramas correspondentes. Simulações e Correlogramas Comece com um processo AR (1). Isso é semelhante a uma caminhada aleatória, exceto que o alfa1 não tem que igualar a unidade. Nosso modelo terá alfa1 0,6. O código R para criar esta simulação é o seguinte: Observe que nosso loop for é realizado de 2 a 100, não de 1 a 100, como xt-1 quando t0 não é indexável. Da mesma forma, para processos AR (p) de ordem superior, t deve variar de p para 100 neste loop. Podemos traçar a realização deste modelo e seu correlograma associado usando a função de layout: agora tentamos instalar um processo AR (p) para os dados simulados que acabamos de gerar, para ver se podemos recuperar os parâmetros subjacentes. Você pode lembrar que realizamos um procedimento semelhante no artigo sobre ruídos brancos e passeios aleatórios. Como acontece, R fornece um comando útil para se ajustar a modelos autorregressivos. Podemos usar este método para primeiro nos dizer a melhor ordem p do modelo (conforme determinado pela AIC acima) e nos fornecer estimativas de parâmetros para o alfai, que podemos usar para formar intervalos de confiança. Para a completude, vamos recriar a série x: agora usamos o comando ar para ajustar um modelo autoregressivo ao nosso processo de AR (1) simulado, usando a estimativa de máxima verossimilhança (MLE) como procedimento de montagem. Em primeiro lugar, extrairemos a melhor ordem obtida: o comando ar determinou com sucesso que nosso modelo de série temporal subjacente é um processo AR (1). Podemos então obter as estimativas dos parâmetros alfai: o procedimento MLE produziu uma estimativa, o chapéu 0.523, que é ligeiramente inferior ao valor verdadeiro de alpha1 0.6. Finalmente, podemos usar o erro padrão (com a variância assintótica) para construir 95 intervalos de confiança em torno do (s) parâmetro (s) subjacente (s). Para conseguir isso, simplesmente criamos um vetor c (-1,96, 1,96) e depois multiplicamos pelo erro padrão: o parâmetro verdadeiro se enquadra no intervalo de confiança 95, como esperamos do fato de que nós geramos a realização do modelo especificamente . Que tal se alterarmos o alfa1 -0.6. Como antes, podemos ajustar um modelo de AR (p) usando ar: Mais uma vez recuperamos a ordem correta do modelo, com uma boa estimativa de chapéu -0.597 de alfa1-0.6. Verificamos também que o verdadeiro parâmetro se enquadra novamente no intervalo de confiança 95. Permite adicionar mais complexidade aos nossos processos autorregressivos, simulando um modelo de ordem 2. Em particular, estabelecemos alfa10.666, mas também definimos alpha2 -0.333. É o código completo para simular e traçar a realização, bem como o correlograma para tal série: como antes, podemos ver que o correlograma difere significativamente do ruído branco, conforme esperado. Existem picos estatisticamente significativos em k1, k3 e k4. Mais uma vez, iriam usar o comando ar para ajustar um modelo AR (p) à nossa realização AR (2) subjacente. O procedimento é semelhante ao ajuste AR (1): a ordem correta foi recuperada e as estimativas do parâmetro hat 0.696 e hat -0.395 não estão muito longe dos valores dos parâmetros verdadeiros de alpha10.666 e alpha2-0.333. Observe que recebemos uma mensagem de aviso de convergência. Observe também que R realmente usa a função arima0 para calcular o modelo AR. Além disso, aprender em artigos subseqüentes, os modelos AR (p) são simplesmente modelos ARIMA (p, 0, 0) e, portanto, um modelo AR é um caso especial de ARIMA sem componente de média móvel (MA). Bem, também estar usando o comando arima para criar intervalos de confiança em torno de vários parâmetros, e é por isso que negligenciamos fazê-lo aqui. Agora que nós criamos alguns dados simulados, é hora de aplicar os modelos AR (p) às séries temporais de ativos financeiros. Dados Financeiros Amazon Inc. Comece por obter o preço das ações da Amazon (AMZN) usando o quantmod como no último artigo: A primeira tarefa é sempre traçar o preço para uma breve inspeção visual. Neste caso, bem, use os preços de fechamento diários: você notará que o quantmod adiciona alguma formatação para nós, ou seja, a data e um gráfico um pouco mais bonito do que os gráficos R habituais: agora vamos levar os retornos logarítmicos da AMZN e depois o primeiro Diferença de ordem da série para converter a série de preços original de uma série não estacionária para uma (potencialmente) estacionária. Isso nos permite comparar maçãs com maçãs entre ações, índices ou qualquer outro recurso, para uso em estatísticas multivariadas posteriores, como no cálculo de uma matriz de covariância. Se você gostaria de uma explicação detalhada sobre o motivo pelo qual os retornos do registro são preferíveis, veja este artigo na Quantividade. Vamos criar uma nova série, amznrt. Para manter nossos retornos de log diferentes: Mais uma vez, podemos traçar a série: nesta fase, queremos traçar o correlograma. Olhamos para ver se as séries diferenciadas parecem ruído branco. Se não existir, então, há correlação serial inexplicada, o que pode ser explicado por um modelo auto-racial. Observamos um pico estatisticamente significativo em k2. Portanto, existe uma possibilidade razoável de correlação serial inexplicada. Esteja ciente de que isso pode ser devido ao viés de amostragem. Como tal, podemos tentar ajustar um modelo AR (p) à série e produzir intervalos de confiança para os parâmetros: Ajustar o modelo autoregressivo AR à série de preços de registro diferenciada de primeira ordem produz um modelo AR (2), com chapéu -0.0278 E chapéu -0.0687. Ive também a saída da variação aestotica para que possamos calcular erros padrão para os parâmetros e produzir intervalos de confiança. Queremos ver se zero faz parte do intervalo de confiança 95, como se fosse, reduz a nossa confiança de que temos um verdadeiro AR subjacente (2) processo para a série AMZN. Para calcular os intervalos de confiança no nível 95 para cada parâmetro, usamos os seguintes comandos. Tomamos a raiz quadrada do primeiro elemento da matriz de variância assintótica para produzir um erro padrão, então crie intervalos de confiança multiplicando-o por -1,96 e 1,96, respectivamente, pelo nível 95: Observe que isso se torna mais direto ao usar a função arima , Mas espere até a Parte 2 antes de apresentá-lo corretamente. Assim, podemos ver que por alfa1 zero está contido dentro do intervalo de confiança, enquanto que para alfa2 zero não está contido no intervalo de confiança. Portanto, devemos ter muito cuidado ao pensar que realmente temos um modelo AR (2) generativo subjacente para AMZN. Em particular, observamos que o modelo autoregressivo não leva em consideração o agrupamento de volatilidade, o que leva ao agrupamento de correlação serial em séries temporais financeiras. Quando consideramos os modelos ARCH e GARCH em artigos posteriores, iremos explicar isso. Quando chegarmos a usar a função arima completa no próximo artigo, faremos previsões da série diária de preços de registro para nos permitir criar sinais de negociação. SampP500 US Equity Index Junto com ações individuais, também podemos considerar o índice US Equity, o SampP500. Permite aplicar todos os comandos anteriores a esta série e produzir as parcelas como antes: podemos traçar os preços: como antes, bem, crie a diferença de primeira ordem dos preços de fechamento de registro: mais uma vez, podemos traçar a série: é claro A partir deste gráfico que a volatilidade não é estacionária no tempo. Isso também se reflete no enredo do correlograma. Existem muitos picos, incluindo k1 e k2, que são estatisticamente significativos além de um modelo de ruído branco. Além disso, vemos evidências de processos de memória longa, pois existem alguns picos estatisticamente significativos em k16, k18 e k21: Em última análise, precisaremos de um modelo mais sofisticado do que um modelo de ordem autorregressivo p. No entanto, nesta fase, ainda podemos tentar ajustar esse modelo. Vamos ver o que obtemos se o fizermos: Usando ar produz um modelo AR (22), ou seja, um modelo com 22 parâmetros não-zero O que isso nos diz É indicativo de que há uma complexidade muito maior na correlação serial do que Um modelo linear simples de preços passados ​​pode realmente ser considerado. No entanto, já sabíamos disso porque podemos ver que existe uma correlação séria em série na volatilidade. Por exemplo, considere o período altamente volátil em torno de 2008. Isso motiva o próximo conjunto de modelos, ou seja, o MA em Movimento (q) e a Média Mover Autoregressiva ARMA (p, q). Bem, conheça ambos sobre a Parte 2 deste artigo. Como mencionamos repetidamente, estes nos levarão finalmente à família de modelos ARIMA e GARCH, que proporcionará um ajuste muito melhor à complexidade de correlação em série do Samp500. Isso nos permitirá melhorar nossas previsões significativamente e, em última análise, produzir estratégias mais lucrativas. Clique abaixo para aprender mais sobre. A informação contida neste site é a opinião dos autores individuais com base em sua observação pessoal, pesquisa e anos de experiência. A editora e seus autores não são conselheiros de investimento registrados, advogados, CPAs ou outros profissionais de serviços financeiros e não prestam assessoria jurídica, fiscal, contábil, de investimento ou outros serviços profissionais. A informação oferecida por este site é apenas de educação geral. Como cada situação factual de indivíduos é diferente, o leitor deve procurar seu próprio conselheiro pessoal. Nem o autor nem o editor assumem qualquer responsabilidade ou responsabilidade por quaisquer erros ou omissões e não devem ter responsabilidade nem responsabilidade para qualquer pessoa ou entidade em relação a danos causados ​​ou alegadamente causados ​​direta ou indiretamente pelas informações contidas neste site. Use por sua conta e risco. Além disso, este site pode receber compensações financeiras das empresas mencionadas através de publicidade, programas afiliados ou de outra forma. Taxas e ofertas de anunciantes exibidos neste site mudam com freqüência, às vezes sem aviso prévio. Enquanto nos esforçamos para manter informações precisas e oportunas, os detalhes da oferta podem estar desactualizados. Os visitantes devem assim verificar os termos de tais ofertas antes de participar delas. O autor e a editora não se responsabilizam por atualizar informações e negar a responsabilidade pelo conteúdo, produtos e serviços de terceiros, inclusive quando acessados ​​através de hiperlinks ou propagandas neste site.24 Usos da modelagem estatística (Parte I) Aqui discutimos aplicativos gerais de estatística Modelos, sejam eles provenientes da ciência dos dados, da pesquisa operacional, da engenharia, da aprendizagem mecânica ou das estatísticas. Não discutimos algoritmos específicos, como árvores de decisão, regressão logística, modelagem Bayesiana, modelos Markov, redução de dados ou seleção de recursos. Em vez disso, discuto frameworks - cada um usando seus próprios tipos de técnicas e algoritmos - para resolver problemas da vida real. A maioria das entradas abaixo são encontradas na Wikipedia e usei algumas definições ou extratos dos artigos relevantes da Wikipedia, além de contribuições pessoais. A dependência espacial é a co-variação de propriedades dentro do espaço geográfico: as características em locais proximais parecem estar correlacionadas, positivamente ou negativamente. A dependência espacial leva ao problema de auto-correlação espacial nas estatísticas, pois, como a auto-correlação temporal, isso viola técnicas estatísticas padrão que assumem a independência entre observações. Métodos para análises de séries temporais podem ser divididos em duas classes: métodos de domínio de freqüência e domínio de tempo métodos. Os primeiros incluem análises espectrales e análises de wavelet recentes, que incluem a auto-correlação e a análise de correlação cruzada. No domínio do tempo, as análises de correlação podem ser feitas de forma semelhante a um filtro usando uma correlação escalonada, mitigando assim a necessidade de operar em domínio de freqüência. Além disso, as técnicas de análise de séries temporais podem ser divididas em métodos paramétricos e não paramétricos. As abordagens paramétricas assumem que o processo estocástico estacionário subjacente possui uma certa estrutura que pode ser descrita usando um pequeno número de parâmetros (por exemplo, usando um modelo de média autorregressiva ou móvel). Nessas abordagens, a tarefa é estimar os parâmetros do modelo que descreve o processo estocástico. Em contrapartida, abordagens não paramétricas estimam explicitamente a covariância ou o espectro do processo sem assumir que o processo tenha uma estrutura particular. Os métodos de análise de séries temporais também podem ser divididos em linear e não linear, e univariante e multivariada. A análise de sobrevivência é um ramo de estatísticas para analisar a duração prevista do tempo até um ou mais eventos acontecerem, como a morte em organismos biológicos e a falha em sistemas mecânicos. Este tópico é chamado de teoria de confiabilidade ou análise de confiabilidade em engenharia, análise de duração ou modelagem de duração em economia e análise de história de eventos em sociologia. Análise de sobrevivência tenta responder a perguntas, tais como: qual é a proporção de uma população que sobreviverá ao longo de um certo tempo Daqueles que sobreviverão, a que taxa eles morrerão ou falhar Podem múltiplas causas de morte ou falha ser levadas em consideração Como fazer particular Circunstâncias ou características aumentam ou diminuem a probabilidade de sobrevivência Os modelos de sobrevivência são usados ​​por atuários e estatísticos, mas também pelos comerciantes que projetam modelos de retenção e recuperação de usuários. Os modelos de sobrevivência também são usados ​​para prever o tempo-a-evento (tempo de se tornar radicalizado para se transformar em terrorista, ou tempo entre quando uma arma é comprada e quando é usado em um assassinato), ou para modelar e prever a decadência (ver seção 4 neste artigo). 4. Segmentação do mercado A segmentação do mercado, também chamada de perfil do cliente, é uma estratégia de marketing que envolve a divisão de um amplo mercado-alvo em subconjuntos de consumidores, empresas ou países que possuem, ou são percebidos, necessidades comuns, interesses e prioridades, e Em seguida, projete e implemente estratégias para direcioná-los. As estratégias de segmentação de mercado geralmente são usadas para identificar e definir os clientes-alvo e fornecer dados de apoio para elementos do plano de marketing, como o posicionamento para alcançar certos objetivos do plano de marketing. As empresas podem desenvolver estratégias de diferenciação de produtos, ou uma abordagem indiferenciada, envolvendo produtos específicos ou linhas de produtos, dependendo da demanda específica e atributos do segmento alvo. 5. Sistemas de Recomendação Os sistemas de recomendação ou os sistemas de recomendação (às vezes substituindo o sistema por um sinônimo como plataforma ou mecanismo) são uma subclasse de sistema de filtragem de informações que procuram prever a classificação ou preferência que um usuário daria a um item. 6. Associação de Aprendizagem de Regras de Associação Ensino de regras de associação é um método para descobrir relações interessantes entre variáveis ​​em grandes bancos de dados. Por exemplo, a regra gt encontrada nos dados de vendas de um supermercado indicaria que, se um cliente comprar cebolas e batatas juntas, provavelmente também comprarão carne de hambúrguer. Na detecção de fraude, as regras de associação são usadas para detectar padrões associados à fraude. A análise de vinculação é realizada para identificar casos de fraude adicionais: se a transação de cartão de crédito do usuário A fosse usada para fazer uma compra fraudulenta na loja B, ao analisar todas as transações da loja B, poderíamos encontrar outro usuário C com atividade fraudulenta. 7. Modelagem de atribuição Um modelo de atribuição é a regra ou conjunto de regras que determina como o crédito para vendas e conversões é atribuído a pontos de contato em caminhos de conversão. Por exemplo, o modelo Last Interaction no Google Analytics atribui 100 créditos aos pontos de contato finais (ou seja, cliques) que precedem imediatamente as vendas ou as conversões. Os modelos macroeconômicos usam dados históricos agregados de longo prazo para atribuir, para cada venda ou conversão, um peso de atribuição para vários canais. Esses modelos também são usados ​​para otimização de mix de publicidade. O modelo de pontuação é um tipo especial de modelos preditivos. Os modelos preditivos podem prever a inadimplência nos pagamentos de empréstimos, risco de acidente, churn ou desgaste do cliente, ou possibilidade de comprar um bem. Os modelos de pontuação geralmente usam uma escala logarítmica (cada 50 pontos adicionais em sua pontuação reduzindo o risco de inadimplência em 50), e são baseados em regressões logísticas e árvores de decisão, ou uma combinação de múltiplos algoritmos. A tecnologia de pontuação é tipicamente aplicada a dados transacionais, às vezes em tempo real (detecção de fraude de cartão de crédito, fraude de cliques). 9. Modelagem Preditiva A modelagem preditiva aproveita as estatísticas para prever resultados. Na maioria das vezes, o evento que se deseja prever é no futuro, mas a modelagem preditiva pode ser aplicada a qualquer tipo de evento desconhecido, independentemente de quando ocorreu. Por exemplo, os modelos preditivos são freqüentemente usados ​​para detectar crimes e identificar suspeitos, após o crime ter ocorrido. Eles também podem usar a previsão do tempo, prever os preços do mercado de ações ou prever as vendas, incorporando séries temporais ou modelos espaciais. As redes neurais, a regressão linear, as árvores de decisão e as Bayes ingênuas são algumas das técnicas utilizadas para a modelagem preditiva. Eles estão associados à criação de um conjunto de treinamento, validação cruzada e montagem e seleção de modelos. Alguns sistemas preditivos não usam modelos estatísticos, mas são dados por meio de dados. Veja o exemplo aqui. A análise de cluster ou agrupamento é a tarefa de agrupar um conjunto de objetos de forma que os objetos no mesmo grupo (chamado de cluster) sejam mais parecidos (em algum sentido ou outro) um do outro que aqueles em outros grupos (clusters) . É uma tarefa principal da mineração de dados exploratórios e uma técnica comum para análise de dados estatísticos, utilizada em diversos campos, incluindo aprendizado de máquinas, reconhecimento de padrões, análise de imagens, recuperação de informações e bioinformática. Ao contrário da classificação supervisionada (abaixo), o agrupamento não usa conjuntos de treinamento. Embora existam algumas implementações híbridas, chamados de aprendizagem semi-supervisionada. 11. Classificação supervisionada A classificação supervisionada, também chamada de aprendizagem supervisionada, é a tarefa de aprendizado da máquina de inferir uma função dos dados de treinamento rotulados. Os dados de treinamento consistem em um conjunto de exemplos de treinamento. Na aprendizagem supervisionada, cada exemplo é um par que consiste em um objeto de entrada (geralmente um vetor) e um valor de saída desejado (também chamado de rótulo, classe ou categoria). Um algoritmo de aprendizagem supervisionado analisa os dados de treinamento e produz uma função inferida, que pode ser usada para mapear novos exemplos. Um cenário ideal permitirá que o algoritmo determine corretamente os rótulos das classes para instâncias não vistas. Exemplos, com ênfase em grandes dados, podem ser encontrados no DSC. Os algoritmos de agrupamento são notoriamente lentos, embora uma técnica muito rápida, conhecida como indexação ou marcação automática, será descrita na Parte II deste artigo. 12. Teoria do Valor Extremo A teoria do valor extremo ou a análise de valor extremo (EVA) é um ramo das estatísticas que trata dos desvios extremos da distribuição mediana das probabilidades. Ele procura avaliar, a partir de uma determinada amostra ordenada de uma determinada variável aleatória, a probabilidade de eventos que são mais extremos do que qualquer observado anteriormente. Por exemplo, inundações que ocorrem uma vez a cada 10, 100 ou 500 anos. Esses modelos têm ocorrido pouco recentemente, para prever eventos catastróficos, resultando em perdas maciças para companhias de seguros. Prefiro as simulações de Monte-Carlo, especialmente se os dados de treinamento são muito grandes. Isso será descrito na Parte II deste artigo.

No comments:

Post a Comment