Afinal, o que é um jogo de vectores?

Autora:Sonhos pequenos, Criado: 2016-11-01 11:51:41, Atualizado: 2016-11-01 11:53:28

Afinal, o que é um jogo de vectores?

Senhoras e senhores, façam as suas apostas. Hoje, vamos fazer o nosso melhor para derrotar um orangotango, que é visto como um dos adversários mais terríveis do mundo financeiro. Vamos tentar prever o lucro do dia seguinte de uma variedade de negociação de moedas. Garanto-lhe que até mesmo tentar vencer uma aposta aleatória e obter uma probabilidade de 50% de vitória é uma coisa difícil. Vamos usar um algoritmo de aprendizagem de máquina pronto, que suporta classificadores de vetores. O vector SVM é um método incrivelmente poderoso para resolver tarefas de regressão e classificação.

  • SVM suporta vectores

O SVM Vector Machine é baseado na ideia de que podemos classificar espaços de características em p dimensões usando superplanos. O SVM Vector Machine Algorithm usa um superplanos e uma Margem de Detecção para criar uma fronteira de decisão de classificação, como mostrado abaixo.

img

No caso mais simples, a classificação linear é possível. O algoritmo escolhe a fronteira de decisão, que maximiza a distância entre as classes.

Na maioria das séries de tempo financeiras que você enfrenta, você raramente encontra conjuntos simples, linearmente separaveis, mas os não separaveis são frequentes. O vector SVM resolveu esse problema implementando um método que se tornou o método de margem suave.

Nesse caso, alguns casos de classificação errônea são permitidos, mas eles mesmos executam funções para minimizar a distância entre os fatores e os erros até o limite de proporção com C (o erro de custo ou orçamento pode ser permitido).

img

Basicamente, as máquinas tentam maximizar o intervalo entre as classificações, ao mesmo tempo em que tentam minimizar seus itens de punição ponderados por C.

O classificador SVM possui uma excelente característica: a localização e o tamanho da fronteira de decisão de classificação são determinados apenas por parte dos dados, ou seja, pela parte mais próxima da fronteira de decisão. As características desse algoritmo permitem que ele resista a interferência de valores anormais distantes dos intervalos.

Afinal, o que eu quero dizer é que, se você quiser, você pode fazer o que você quiser, mas não é complicado demais.

Considere a seguinte situação (separando o ponto vermelho do ponto de outra cor):

img

Do ponto de vista humano, classifica-se de forma simples (uma linha elíptica), mas não é o mesmo para uma máquina. Obviamente, não pode ser feito em linha reta (uma linha reta não pode separar os pontos vermelhos). Aqui podemos tentar o truque do núcleo de alumínio.

A técnica do núcleo é uma técnica matemática muito inteligente que nos permite resolver problemas de classificação linear em espaços de alta dimensão.

Nós vamos converter o espaço de características em duas dimensões em três dimensões através de um mapeamento elevador, e depois de concluir a classificação, voltaremos para a segunda dimensão.

Os gráficos abaixo mostram os mapas elevados e os gráficos após a classificação:

img

Em geral, se houver uma entrada d, você pode usar um mapeamento do espaço de entrada d para o espaço de características p. Execute a solução que o algoritmo de minimização acima produzirá e mapeie de volta o superplano p de seu espaço de entrada original.

A solução matemática acima é uma premissa importante, que depende de como gerar bons conjuntos de amostras de pontos no espaço de características.

Você só precisa desses conjuntos de amostras de pontos para executar a otimização de fronteiras, o mapeamento não precisa ser claro, e os pontos do espaço de entrada em espaços de características de alta dimensão podem ser calculados com segurança por meio de funções nucleares (e com a ajuda do teorema de Mercer).

Por exemplo, você quer resolver seu problema de classificação em um espaço de características super grande, digamos que seja de 100.000 dimensões. Você pode imaginar o poder de computação que você precisa?

  • Desafio e gorilas

Agora, estamos a preparar-nos para enfrentar o desafio de derrotar Jeff.

Jeff é um especialista em mercados de moeda que consegue 50% de precisão em suas previsões com apostas aleatórias, que são sinais de retorno para o próximo dia de negociação.

Vamos usar diferentes sequências de tempo básicas, incluindo a sequência de tempo de preço no momento, com ganhos de até 10 lags em cada sequência de tempo, com um total de 55 características.

A máquina de vetores SVM que estamos preparados para construir é uma máquina que usa núcleos de 3 graus. Você pode imaginar que escolher um núcleo adequado é outra tarefa muito difícil, para calibrar os parâmetros C e Γ, a verificação tripla de cruzamento é executada em uma grade de combinações possíveis de parâmetros e o melhor conjunto será selecionado.

Os resultados não são muito encorajadores:

img

Podemos ver que tanto a regressão linear quanto o vector SVM podem derrotar Jeff. Embora os resultados não sejam otimistas, também podemos extrair algumas informações dos dados, o que já é uma boa notícia, porque, na disciplina de dados, os ganhos diários de séries de tempo financeiras não são os mais úteis.

Após a verificação cruzada, o conjunto de dados será treinado e testado, e nós registramos a capacidade de previsão do SVM treinado, para ter um desempenho estável, repetimos 1000 divisões aleatórias de cada moeda.

img

Assim, em alguns casos, o SVM é melhor do que uma simples regressão linear, mas a diferença de desempenho é ligeiramente maior. Em dólares e ienes, por exemplo, a média de sinais que podemos prever é de 54% do total.

Ted é o primo de Jeff, que também é um gorila, é claro, mas é mais esperto que Jeff. Ted olha para o conjunto de amostras de treinamento, e não para apostas aleatórias. Ele sempre dá sinais de barulho a partir da saída mais comum do conjunto de treinamento.

img

Como vimos, a performance da maioria dos SVMs vem apenas do fato de que o aprendizado de máquina para classificar é menos provável do que o anterior. Na verdade, a regressão linear não consegue obter nenhuma informação do espaço de características, mas a interceptação na regressão faz sentido, e isso está relacionado ao fato de que a interceptação e a correlação de uma classificação funcionam melhor.

Uma notícia um pouco melhor é que o vector SVM consegue extrair algumas informações não-lineares adicionais dos dados, o que nos permite sugerir uma precisão de 2% para a previsão.

Infelizmente, ainda não sabemos o que essa informação pode ser, como o vector SVM tem suas principais desvantagens, que não podemos explicar claramente.

Autor: P. López, publicado em quantdare Traduzido de WeChat Public.img


Mais.

Ouro9966O que é que ele faz?