Etiqueta: Info-Trading

El Extraño Caso del Indicador Mutante

El Extraño Caso del Indicador Mutante

Esta es una de esas entradas que he estado resistiéndome a escribir durante años porque, según cómo lo explique, puede causar un cierto desasosiego entre algunos traders. Pero es la realidad diaria.

Por mi actividad migrando mis herramientas entre plataformas desde hace años me he encontrado con todo lo que ahora explicaré, y no creo que hayan sido muchos más los que hayan compartido estas experiencias así que, tampoco he encontrado quien las haya detallado antes.

Migrar herramientas es un trabajo bastante más delicado y complejo de lo que pudiera parecer en principio

Partiré de un caso, que no siendo muy habitual, tampoco es único. Así que, ni que sólo sea para evitar tener que volver a explicar todo esto con detalle cada vez que alguien me lo pregunte, valga el tiempo dedicado a redactar esta entrada.

Además, me servirá para explicar un poco mejor qué hace concretamente un indicador. Y podrán entender [espero] por qué, a veces, los desarrollos de una misma herramienta en diferentes plataformas puede ser una pequeña (o gran) tortura [cosa a la que cada vez me resisto con mayor fuerza].

Migremos, ya que podemos

Muchos usuarios, por la razón que sea, deciden migrar de plataforma. Si es usuario de alguna de mis herramientas y está disponible en el nuevo entorno, puede solicitarme la nueva versión correspondiente. Si es el caso, se la remitiré, empezará a usar el indicador en su nueva plataforma de la misma forma que antes y [generalmente] aquí acaba el relato.

Pero, en algunos casos, el tema se complica. Algunos usuarios especialmente meticulosos, empiezan a comparar curvas y valores entre ambas plataformas [cosa que seguramente no han hecho ni harán con cualquier otro de los indicadores disponibles] y, en algunas ocasiones comprueban (oh sorpresa!) que algunos valores numéricos del indicador en ambas plataformas NO siempre son exactamente iguales. ¿Qué está pasando?

¿Quién será el culpable?

Aquí entra en juego la variabilidad en la personalidad humana, pero tomaré un caso medio para que nadie se ofenda ni se sienta aludido.

Imagino que la primera idea que vendrá a la mente de la mayoría es que ESA nueva versión del indicador NO está correctamente programada o contiene errores. Quizás haya quien piense que tampoco lo está la anterior. O que no lo ha estado nunca ninguna.

Realmente yo nunca he visto un caso tan grosero que llegue a alterar el trazado de las curvas [se trabaja mucho para que eso no pase] pero, y fíjense en lo que les voy a decir: ni siquiera descarto que eso pueda pasar en algún caso puntual.

«Pero, ¿y cómo lo admite con tal desparpajo!?», pensarán los que ya me han condenado antes de iniciar la simple exposición. Pues porque podría llegar a ser así y si tiene la paciencia de seguirme un poco más lo entenderá. Ahora viene lo interesante.

¿Cómo funciona la relación entre indicadores y plataformas?

De este efecto antes explicado [problemas de concordancia exacta] me di cuenta ya en mis primeras migraciones de herramientas y, a la postre siempre acaba siendo uno de mis peores dolores de cabeza. De hecho que el 99,99% de los usuarios nunca se percaten o lo aprecien jamás es motivo de un cierto orgullo. De hecho la mayoría supongo que tendrá primera [inquietante] noticia aquí.

Así que como me di cuenta (como afectado) de este tema hace tiempo y tuve que investigar a qué era debido, paso a detallarlo cosa que, dicho sea de paso, tampoco conozco que nadie haya hecho antes, lo que en su día me habría ahorrado MUCHO trabajo y pesquisas, y fue un problema añadido. [Igual alguien alguna vez me lo agradezca].

Lo primero que necesitamos hacer es dividir el proceso en bloques para poder asignar la responsabilidad a cada posible parte.

Empecemos por el indicador, principal sospechoso. ¿Qué es y qué hace un indicador? Básicamente un indicador (todos ellos) es un algoritmo compuesto de una o varias fórmulas matemáticas que toman una serie de datos, los procesa y entrega uno o más resultados de esa operación.

¿Cuál es el papel de la plataforma? Pues, en toda su complejidad, básicamente dos:

  • Ofrece los datos de entrada; y
  • Gestiona las salidas generalmente en forma de representación gráfica

Así, en un esquema básico de proceso, a la plataforma le corresponde la «entrada» y la «salida» , mientras que al indicador le corresponde el «proceso» de los datos.

¿De dónde vienen las diferencias?

Una vez constatadas que en un determinado mismo gráfico entre dos plataformas de trading existían diferencias (generalmente pequeñas) en los valores de salida, cabía descubrir qué pasaba, dónde y, a ser posible, cómo solucionarlo/minimizarlo.

Como siempre en estos casos se trabaja por eliminación, aislando cada elemento participante. Así lo hicimos empezando por el propio indicador. ¿Había alguna diferencia entre los algoritmos que justificase esas diferencias? La respuesta fue que no. El algoritmo (la fórmula) era EXACTAMENTE la misma en todos los casos y calculada de la misma forma y en el mismo correcto orden.

El indicador toma una serie datos de la plataforma, opera con ellos y entrega los resultados de nuevo a la plataforma, que acaba convirtiéndolos en un gráfico.

Así había que prestar atención ahora a las plataformas y examinarlas dento de nuestras limitadas posibilidades pues los fabricantes, como es natural, no se prestaban a dar mucha información técnica.

Como en muchas de mis herramientas el valor «volumen» está incorporado, empezamos por ahí y como, por fortuna, podemos visualizar ese valor individualmente simplemente desplegándolo separadamente en una ventana del gráfico, la sorpresa fue considerable.

En la mayor parte de los casos donde observamos diferencias en los valores del indicador era porque había variaciones entre los valores de los volúmenes. Recuerdo que estamos hablando de mismos períodos de mismos activos. ¿Por qué no coincidían exactamente? ¿Cuál volumen era el correcto?

Bienvenidos al laberinto de los datos

Comunicamos (amablemente) estas diferencias a algunas plataformas, y les consultamos a qué podían ser debidas. De entrada, y como era previsible, todas afirmaron sin dudar que SUS datos eran los correctos, que obtenían de tal o cual fuente de datos totalmente fiable y certificada. Y, ¿saben qué? TODOS decían la verdad.

Entonces, ¿qué pasaba? Pues, después de no pocas pesquisas y esfuerzos entre un laberinto de suministradoras primeras de datos, fuentes oficiales y mercados, resultó que NO EXISTÍA [y no tengo noticia que eso haya cambiado] un sistema internacional estándar de contabilizar el volumen negociado.

Eso significa que, según unos u otros, volúmenes negociados fuera de mercado, o en operaciones realizadas en aperturas o cierres, se contabilizan en un bloque temporal u otro, total o parcialmente, sin acabar de aclarar muy bien quién hacía qué y cómo. [Por no hablar de mercado paralelos, creadores de mercado, dark pools y otras lindezas].

Así que tuvimos que acostumbrarnos a vivir sabiendo que, al menos en uno de los datos que manejaba el algoritmo, había variaciones entre los datos suministrados según el tipo activo, de derivado, el suministrador de datos de cada plataforma y un montón de variables más completamente imposibles de prever. [Puedes hacer clic en lo gráficos para observarlos en detalle]

La buena noticia es que, después de [como pueden comprobar] estudiarlo MUY detenidamente, llegamos a la conclusión que, por mucho que haya diferencias al contabilizar algunas variables concretas, si ese MÉTODO era constante para cada plataforma concreta NO AFECTABA para nada la coherencia de la herramienta.

Se observarían diferencias en los valores del indicador porque existían diferencias en la serie de datos a procesar. En general eran diferencias porcentualmente pequeñas y difícilmente apreciables sobre el trazado de la curva.

En el fondo, que determinadas operaciones se contabilicen ahora o más tarde, si siempre se hace del mismo modo, no afecta en absoluto el resultado final, por más que pueda modificar puntualmente los valores.

Otro de los «descubrimientos» que obtuvimos del análisis del problema comparando una buena cantidad de plataformas fue que, en general, la calidad de los datos ofrecidos era directamente proporcional a su precio de suscripción, cosa que tampoco debería sorprender a nadie.

Pero, con el dato «precio» no hay nunca duda ¿O sí?

«Pero, al menos», -me dirá el amable y paciente lector- «sabemos que los datos de precio serán siempre correctos e idénticos en todas las plataformas». Y yo les responderé que sí, que CASI SIEMPRE eso es así.

Haz clic para aumentar

Debería explicarles en este punto que las plataformas de trading son, en esencia, bases de datos gráficas. Contratan un servicio externo que les suministra los datos del mercado en tiempo real [que almacenan en su base de datos] y se los hace llegar por conexión telemática.

Pero esas conexiones pueden ser de mejor o peor calidad, tanto en velocidad como en fiabilidad. Pero, incluso las de más alta calidad, no están exentas de pequeños errores de transmisión. Los más groseros son detectados y corregidos (manualmente) de la base de datos de cada plataforma, pero cuando son pequeños o afectan sólo detalles concretos pueden pasar desapercibidos.

Un Futuro DAX en 30 minutos graficado en dos diferentes plataformas

Estos gráficos sólo son pequeñas muestras (convenientemente lejanas) de algunas diferencias entre plataformas en los datos de entrada. Podrían parecer intrascendentes (lo serían en el 99,99% de los casos) pero en indicador cuyo algoritmo contemplase esos detalles generaría problemas de concordancia exacta.

O, incluso, desplazando una vela de hora… [al fin i al cabo, es sólo un bit de error]

Aprovecho para comentar que, si en alguna ocasión detectan algún error en algún gráfico, sea grande o pequeño, si lo comunican a su plataforma se lo agradecerán mucho, porque así lo podrán corregir manualmente.

Así que llegamos a una primera conclusión: aunque el sospechoso probable parecía ser el indicador, todos los indicios apuntan a que el principal causante de las diferencias finales, son los datos [presuntos inocentes]. Y, lógicamente, si los datos son distintos, también lo serán los valores resultantes una vez procesados.

Si quieren que les haga una confesión, ocuparme y preocuparme por la CALIDAD de los datos ofrecidos por determinadas plataformas ha sido una de las razones por las que he ido abandonando el desarrollo en algunas de ellas que, por más que sean populares, tienen [en mi modesta opinión] muy descuidada la calidad de los datos que ofrecen a sus usuarios. Así que me pregunté «¿para qué esforzarme en mantener unas buenas herramientas si los usuarios trabajan en un entorno de datos de mala calidad?»

¿Te has preguntado nunca si vale la pena trabajar con una plataforma que te ofrezca datos inexactos o descuidados, por popular (o barata) que sea?

Si los datos de la serie de origen son distintos, una vez procesados, también lo serán los resultados

Sofisticando el error

Permítanme que acabe ya con un último apunte, que les aseguro que dejar el tema sólo en esta entrada no hace justicia a la cantidad de horas que, durante años, le he tenido que dedicar a este complejo tema.

Después de entender y asumir la primera parte de esta exposición [asumirla porque está TOTALMENTE FUERA de mis posibilidades evitarla o solucionarla] me encontré con una segunda «patología» .

En este caso, miraba y remiraba y no detectaba variaciones en los datos que justificasen unas pequeñas (pequeñísimas, generalmente) variaciones permanentes en los resultados. De hecho, propiamente deberíamos hablar de mínimas desviaciones.

Así que había que volver a investigar de dónde venían. Como he explicado en alguna otra parte, mis herramientas son lo que conoce habitualmente como «de 2ª generación» , o sea, que incorporan como elementos herramientas de 1ª generación, en nuestro caso, indicadores anteriores.

Por otro lado, muchos de esos indicadores clásicos [ RSI, Momentum, Medias, MACD, Escocásticos, etc.] la mayoría de plataformas los tienen integrados en forma de funciones predefinidas [built-in, que diríamos en argot].

Sus formulaciones son conocidas, pero no es fácil acceder a comprobar cómo están programadas en cada plataforma. Y, una vez más después de bastante trabajo y elucubraciones, acabamos detectando que había en ocasiones diferencias en la forma de cálculo de algunas de estas funciones/indicadores.

Pequeños matices, como utilizar un tipo de alisado en lugar de otro, un tipo media específica u otra más avanzada. Detalles que me llevaron, por ejemplo, a darme cuenta que el uso y elección de las medias utilizadas en cada parte de un algoritmo podía modificar sutilmente el resultado [para mejorarlo o para empeorarlo]. Por eso les he estado mostrando parte de ese trabajo recopilado en mis entradas sobre medias móviles en este mismo blog.

Sé que es la nuestra es una especialidad MUY peculiar, donde encontramos traders que programan y programadores metidos en temas de trading, pero no muchos programadores que sean, a la vez, traders [y viceversa].

Lo explico porque todos los programadores nos hemos encontrado en algunos casos y lenguajes que no sólo importa el qué, sino el cómo y en qué orden. En algunos casos [pocos, es cierto] algunas funciones estaban bien programadas, aunque con algún detalle incorrecto. Para explicarlo gráficamente, la imagen siguiente es propiamente la de un sandwich sólo que con algún «detalle» incorrecto.

Y así queda básicamente explicado por qué en la mayor parte de los casos en que se observen diferencias entre dos indicadores idénticos [míos o de quien sean] en dos diferentes plataformas, por favor no saquen conclusiones precipitadas.

Y, la moraleja de todo esto, es que:

  1. no siempre hay que disparar sistemáticamente sobre el pianista si algo no suena bien. Puede que el piano o la partitura tengan algo que ver.
  2. explicar todo esto por mail era muy complicado y difícil cada vez que alguien me lo consultaba, así que queda desarrollado para todos ellos de ahora en adelante.

Espero que alguien haya llegado hasta el final y que le haya resultado útil e instructivo para conocer mejor algunos aspectos poco conocidos del trading, las plataformas y los indicadores.

Gracias por llegar hasta aquí.


La Prodigiosa Economía de las Ideas

La Prodigiosa Economía de las Ideas

Si yo te doy un euro y tu a mi me das otro, al final terminamos los dos con un euro, exactamente igual de como empezamos.

Pero si yo te doy una idea y tú a mí me das otra, al final tenemos dos ideas cada uno. En términos económicos, ambos hemos doblado nuestro capital.

Eso es un buen negocio y el resto, paparruchas.

Este blog pretende TRAFICAR en ideas.

Los «Es Peor» de la Información

Los «Es Peor» de la Información

Es peor tener MALA información que NO tener información, porque la mala información te hace tomar malas decisiones.

Es peor tener DEMASIADA información que NO tener información, porque crea la falsa sensación de estar bien informado cuando, simplemente, estas saturado, aturdido e infoxicado.

No necesitas MUCHA información, sino POCA y FIABLE. Con eso basta para tomar buenas decisiones.

Jugar Bien Tus Cartas

Jugar Bien Tus Cartas

Hay poca verdad en los mercados y NULA en la actividad del trading.

De hecho, como ya he publicado en alguna ocasión, opino que la principal función de los Mercados es la de GENERAR CONFUSIÓN para ocultar los datos relevantes. Ya que, según las propias reglas del mercado, la verdad debe existir como variable en el sistema, los mercados generan una cantidad ingente de ruido para ocultarla. Los pocos que son capaces de reconocerla e identificarla son los que tienen alguna posibilidad de enriquecerse.

Considero a los mercados como el sistema de información humano más complejo jamás creado.

Descubrir, aislar y catalogar la escasa verdad fluyente y filtrar el ruido y la mentira [deliberada o no] es algo que merece la categoría de RETO. ¡Me encanta! Me siento como una mezcla a partes iguales del Sam Spade en “El Halcón Maltés y del John Forbes Nash novelado en “Una Mente Maravillosa”, escribiendo sobre los cristales los principios del Equilibrio de Nash y la Teoría de los Juegos.

Me gusta el trading especialmente porque considero a los Mercados como el sistema de información humano más complejo jamás creado y eso es un DESAFÍO APASIONANTE. Es mi propio laboratorio de ideas.

Para mí, el trading es un juego estadístico donde las certezas no existen y sólo se trabaja con probabilidades. Para entendernos, para mí es más parecido al Póker o al Black Jack [o al dominó, en versión más hispánica] que a la ruleta o a la lotería.

Si estuviéramos ante un juego de azar puro como la lotería, todo se basaría en la suerte. Todos tenemos las mismas opciones al comprar un número y acertar el premio mayor no tiene mayor mérito. Le toca a quien le toca y si juegas más, tienes proporcionalmente más probabilidades.

Analizar los mercados desde el punto de vista de la gestión de la información, es como entender cómo gestiona sus cartas un experimentado jugador de póquer.

Pero convendremos todos que, independientemente del oponente, en un juego como el póquer [o dominó o la mayor parte de juegos como los antes enunciados] un jugador novel tiene muchas menos opciones de ganar que uno experimentado. ¿Quiere eso decir que el experimentado ganará siempre? Tampoco. Está el factor azar sigue presente en las bazas que se le presenten en cada partida y momento. La diferencia es que, con ellas en la mano, sabe gestionarlas mejor que el novato. Incluso sabe cuándo es conveniente NO jugar y dar una mano por perdida.

Por eso mi orientación es analizar los mercados desde el punto de vista de la gestión de la información, del mismo modo que intentaría entender cómo gestiona sus cartas un experimentado jugador, sean las cartas que sean las que le llegan en la mano.

Al final, ganar con una pareja de doses en el póquer, o en el dominó cargado de dobles, es una hazaña al alcance sólo de jugadores experimentados.

Sobre Fuentes Fiables y Fuentes Contaminadas

Sobre Fuentes Fiables y Fuentes Contaminadas

Dentro de los muchos derivados aplicados a la Teoría Matemática de la Información [TI] originariamente propuesta por Shannon y Weaver, uno de los aspectos desarrollados fue el de la catalogación de las fuentes de datos.

Por no alargarme innecesariamente, la importancia de escoger las fuentes de datos adecuadas es [como parece obvio] básico para poder después hacer un análisis correcto de los datos y obtener respuestas veraces a las preguntas propuestas.

Para resumirlo, en un esfuerzo máximo de simplificación, se dividieron la fuentes en dos únicos tipos, las denominadas FUENTES VERACES y las FUENTES CONTAMINADAS. Para que sea más fácilmente entendible lo trasladaré directamente al campo de los Mercados, tal y como yo lo entiendo y aplico desde hace años.

Como FUENTES VERACES entendemos aquellas que nos proporcionan informaciones PÚBLICASÚNICAS y UNÍVOCAS. Son accesibles para todos, y para todos tienen un mismo valor en un mismo momento. Esas fuentes [en nuestro caso y en esencia] serían las cinco básicas: máximo, mínimo, apertura, cierre y volumen.

Como «fuentes veraces» entendemos aquellas que son directamente accesibles para todos, y para todos tienen un mismo valor en un mismo momento.

Como FUENTES CONTAMINADAS entendemos [siempre desde la perspectiva de la TI] cualquier dato no obtenido de manera directa. Por poner un ejemplo, si obtenemos la temperatura de una determinada estancia a través de un sensor homologado y conectado directamente a nuestro equipo de proceso, la fuente es veraz; pero si enviamos a un ayudante a observar la temperatura en una pantalla y nos la comunica, la fuente pasa a estar CONTAMINADA, y todos los resultados posteriores estarían en cuestión, aunque el dato sea correcto.

Así, cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina y, en consecuencia, deberemos descartarla [o tener este hecho muy en cuenta].

Con esta visión tan estricta de la calificación de las fuentes, la TI se cura en salud, pues pone en cuestión cualquier tipo de información que no sea directamente verificable por todos los observadores a un tiempo. Con ello elimina de la ecuación tanto los errores, como la información manipulada en beneficio de algo o de alguien.

Cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina

La información manipulada no tiene por qué ser estrictamente falsa. La «buena» información manipulada puede ser correcta [o casi] en sus datos, pero también puede ser muy tergiversada en la presentación interpretación de los mismos porque, para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona.

Desde ese estricto punto de vista [quizás equivocado, pero metódico] habrá que descartar las informaciones suministradas por los medios de comunicación [TODOS, desde los diarios especializados hasta las redes sociales, pasando por éste desde el que ahora mismo yo estoy opinando], así como también las suministradas directamente por los actores económicos [empresas, sectores o países], por ser datos interesados suministrados por parte; con lo que el análisis fundamental (AF) quedaría fuera del ámbito de cualquier estudio ni remotamente basado en la TI.

Para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona

Desde el punto de vista de la TI, el gran truco de los mercados financieros no es tanto la ocultación de los datos, sino el de la saturación de información [infoxicación], mezclando muchas fuentes, casi todas ellas contaminadas [interpretadas, opinadas y/o interesadas] creando una tremenda confusión [ruido] capaz de ocultar las trazas de las fuentes veraces [señal] y dificultando su interpretación.

Realmente, desde el punto de vista de la TI, en esos mercados que aparentemente bullen de información, las fuentes veraces y fiables son muy escasas.

No Se Trata Tanto de los Datos…

No Se Trata Tanto de los Datos…

No se trata tanto de los datos, sino de cómo los leas.

Y te lo voy a demostrar.

Mismas letras, mismo código, diferente ordenación:

  • On es atart otnat ed sol sotad, onis ed omóc sol sael.

Mismo código, misma ordenación, menor cantidad de señal:

  • N s trt tnt d ls dts, sn d cm ls ls.

Introduciendo ruido blanco:

  • Nhoh shhe trhahta tahntho dhe hlohs hdhathohs, shihnho deh cóhmoh hlhohs lehahsh.

O introduciendo ruido gris:

  • dNrtoyusyeptverua,tla;tawxnitotde;l.oiupswdxauitzxo-s,suyi4n3ogdehtceómptolohsllhea,ahsñ.

El mercado aporta señal, pero está lleno de ruido. En el mejor de los supuestos, se puede parecer bastante a este último ejemplo, donde TODAS las letras y palabras están incluidas y en el orden adecuado, pero el nivel de ruido es tan alto que es casi imposible interpretar el mensaje original.

Códigos originales de la famosa máquina Enigma

¿Crees que todo esto es un simple divertimento? ¿Crees que no tiene nada que ver contigo y con el trading? Pues yo creo que lo tiene, y mucho. Y, si lo piensas un poco, seguro que a ti también te lo parecerá.

Por eso hay que trabajar en nuevas formas de visualizar esos datos, para separar los relevantes de los que no lo son; para aislar y anular el ruido al máximo posible.

Tendencia es a Señal como Volatilidad a Ruido

Tendencia es a Señal como Volatilidad a Ruido

Hoy les voy a proponer una aplicación simple de los conceptos básicos de la Teoría de la Información [TI] sobre el análisis gráfico tradicional, una de las muchas que, basadas en esta metodología, somos capaces de hacer, y que cuestionan aspectos del AT tradicional.

Desde el punto de vista del análisis gráfico, la Regresión Lineal [RL] es la forma de aproximación estadísticamente más correcta a un conjunto de valores.

Por lo tanto, desde el punto de vista de la TI, hacer esto sería mucho más correcto que andar tirando líneas uniendo mínimos o máximos, que no son valores medios sino extremos y, precisamente por ello, estadísticamente poco significativos.

Los canales de desviación típica y de error típico deberían ser la herramienta utilizada para dibujar canales y no ese método -pido perdón por la expresión- hoy en día ya rupestre y sin fundamento lógico de hacerlo trazando paralelas desde máximos o mínimos.

Viendo el trazado y la pendiente de la RL de un tramo concreto de cotización, los traders lo identificaríamos con la TENDENCIA [sería matemáticamente más correcto], y desde el punto de vista de la TI estaríamos contemplando la SEÑAL.

Al mismo tiempo, los desplazamientos a ambos lados de la RL podríamos visualizar los efectos del RUIDO, desviando la cotización real de la señal pura. Sin ser exactamente lo mismo, podríamos asociarlo con lo que los traders generalmente asociamos con el concepto de VOLATILIDAD.

Más o menos, lo veríamos así:

senyal_ruido

Sería observar los mismos elementos bajo otros parámetros. Este tipo de visión alternativa fue la que, ya hace años, hizo que me plantease el diseño de algunas nuevas herramientas de trading que la mayoría de ustedes ya conocen y han tenido oportunidad de probar directamente.

El Modelo TI en el Trading

El Modelo TI en el Trading

Cuando hace ya bastantes años llegué al mundo del trading, no pude por menos que observar algunos paralelismos entre la estructura del trading [del e-trading, para ser más exactos] y ciertas partes de la Teoría Matemática de la Información [TI] según el Modelo de Shannon/Weaver.

Para empezar, este es el modelo básico de comunicación según la TI:

Observemos que, según esta arquitectura básica, hay algunos conceptos que merecen especial atención. A un lado tenemos la Fuente de información (mercado) y, en el extremo opuesto estamos nosotros mismos, los traders, como receptores y destinatarios de la misma.

El eslabón intermedio de la cadena (Transmisor y Receptor), así como la codificación, son ahora mismo íntegramente por vía telemática y digital, gracias a la popularización de la red [el e-trading del que antes hablábamos].

Por último, tenemos un último factor que la TI ya contempla como fundamental: el Ruido, como elemento distorsionador interpuesto. Como pronto veremos, el ruido tiene en el trading (y desde este punto de vista metodológico) especial relevancia, así como diferentes orígenes y causas, algunas accidentales y otras claramente provocadas.

Shannon y la Teoría Matemática de la Información

Shannon y la Teoría Matemática de la Información

Bueno, esto no es nada fácil. De un blog se espera que el autor sea breve y ameno, y seguramente este no es un tema apropiado para explicar aquí con detalle pero, al menos, podemos probarlo. Intentaré empezar por el principio e ir al grano.

¿La razón de todo esto? Explicar hasta qué punto la Teoría de la Información (TI) me parece aplicable como metodología al estudio del funcionamiento de los mercados financieros y al trading.

La Teoría de la Información [TI] fue formulada a finales de la década de 1940 por el ingeniero y matemático Claude Elwood Shannon. En su origen esta teoría se refería solo a las condiciones técnicas en la transmisión de mensajes. Su primera versión apareció publicada en el Bell System Technical Journal en octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización para la que Shannon trabajaba.

Muy poco después el sociólogo Warren Weaver acertó a entrever todo el potencial subyacente en el trabajo de Shannon y redacto un ensayo, que fue publicado junto al texto anterior en julio de 1949 bajo el título de «The Mathematical Theory of Communication«.

Click para descargar en PDF

En conjunto dieron lugar a un pequeño libro. De este modo, la unión de dos disciplinas diferentes produjo una obra de referencia duradera en el campo de la comunicación, entendido en el más amplio sentido. Lo habitual es que se aluda a estas concepciones como el Modelo de Shannon y Weaver, o como la Teoría de la Información [TI].

Este trabajo es de una excepcional importancia en el campo de la cibernética, siendo una de las obras de referencia básica. Shannon contempló por primera vez la transmisión de información como una teoría matemática dentro del campo específico de la probabilidad y la estadística, estudiando la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados.

En la próxima entrega, un poco más sobre Shannon, su teoría y su relación con los mercados financieros. [Por cierto, si quieren conocer el original, basta con que pulsen sobre la imagen de la portada del libro para obtener un PDF de la obra]

InfoTrading: Para Traders del S. XXI

InfoTrading: Para Traders del S. XXI

Podríamos llamarlo InfoTrading [Informational Trading o Inversión Informacional, en español]. El nombre seguramente ni siquiera sea importante, pero sí su objetivo, que sería estudiar el trading como análisis del flujo de datos y su correcta gestión.

No me refiero tanto a técnicas como el HFT [High Frequency Trading], interesantes pero muy alejadas de nosotros, traders de a pie. Lejos de ello, desde el principio me interesó descubrir hasta dónde podía llegar con las herramientas y plataformas disponibles para el usuario medio del trading.

La aplicación a la operativa bursátil de conceptos generales que nuevas disciplinas como la infonomía [gestión avanzada de la información] o las derivadas aplicativas de la Teoría de la Información (TI) aportan nuevas visiones y posibilidades a los postulados tradicionales del trading.

Mi trabajo de diseño aplicativo [la vertiente práctica de estas teorías] se basa en inferir de esos datos alguna nueva información que ayude en el trading diario.

Atacar los fundamentos de cualquier disciplina es una práctica bastante suicida. Lo sé y lo prudente [y lo cómodo] sería callar, porque ya me he ganado alguna descalificación de fondo.

En mi favor pesa que me importa un rábano. Yo no tengo ningún prestigio que defender, ni como analista, ni como gestor profesional, ni nada por el estilo. Me da absolutamente igual.

Por poner un ejemplo [de grueso calibre, pero suficientemente claro], el consenso general opina que la operativa en los mercados está básicamente relacionada con la economía, sus conceptos, sus noticias y sus ciclos. Después de muchos años, estoy convencido que el trading es básicamente un complejo problema de gestión de los flujos de información, y que los expertos mediáticos vienen a justificar a posteri cualquier movimiento en cualquier sentido.

La base es saber diferenciar los datos veraces de los que no lo son, y a operar sólo en función a los provenientes de las fuentes más fiables. Mi trabajo de diseño aplicativo [la vertiente práctica de estas teorías] se basa en inferir de esos datos alguna nueva información que ayude en el trading diario.

La aplicación en la operativa bursátil de conceptos de nuevas disciplinas como la infonomía o las derivadas aplicativas de la Teoría de la Información (TI) aportan nuevas visiones y posibilidades al trading.

Pero, ¿de verdad a alguien le interesa esto? Por lo general, a la mayor parte de los traders lo único que les interesa es qué comprar hoy y qué vender mañana. Lógico, pero triste. Sólo quieren información, el conocimiento [a la mayoría] les tiene sin cuidado, aunque es precisamente el conocimiento [y no la información] lo que los convertirá en traders consistentes.

Hoy, para acabar, les dejo con una de mis postulados de cabecera. Es la llamada Hipótesis de Lloyd y se la debemos a Seth Lloyd, catedrático de Ingeniería Mecánica en el Instituto de Tecnología de Massachusets (MIT), donde trabaja en problemas relacionados con los sistemas complejos [desde el Universo a los átomos] y la información. La Hipótesis de Lloyd enuncia que:

“Todo lo que merece la pena ser entendido de un sistema complejo, puede ser entendido en términos de cómo procesa información”