Categoría: Info-Trading

El Extraño Caso del Indicador Mutante

El Extraño Caso del Indicador Mutante

Esta es una de esas entradas que he estado resistiéndome a escribir durante años porque, según cómo lo explique, puede causar un cierto desasosiego entre algunos traders. Pero es la realidad diaria.

Por mi actividad migrando mis herramientas entre plataformas desde hace años me he encontrado con todo lo que ahora explicaré, y no creo que hayan sido muchos más los que hayan compartido estas experiencias así que, tampoco he encontrado quien las haya explicado antes.

Migrar herramientas es un trabajo bastante más delicado y complejo de lo que pudiera parecer en principio

Partiré de un caso, que no siendo muy habitual, tampoco es único. Así que, ni que sólo sea para evitar tener que volver a explicar todo esto con detalle cada vez que alguien me lo pregunte, valga el tiempo dedicado a redactar esta entrada.

Además, me servirá para explicar un poco mejor qué hace concretamente un indicador. Y podrán entender [espero] por qué, a veces, los desarrollos de una misma herramienta en diferentes plataformas puede ser una pequeña (o gran) tortura [a la que cada vez me resisto con mayor fuerza].

Migremos, ya que podemos

Muchos usuarios, por la razón que sea, deciden migrar de plataforma. Si es usuario de alguna de mis herramientas y está disponible en el nuevo entorno, puede solicitarme la nueva versión correspondiente. Si es el caso, se la remitiré, empezará a usar el indicador en su nueva plataforma de la misma forma que antes y [generalmente] aquí acaba el relato.

Pero, en algunos casos, el tema se complica. Algunos usuarios especialmente meticulosos, empiezan a comparar curvas y valores entre ambas plataformas [cosa que seguramente no han hecho ni harán con cualquier otro de los indicadores disponibles] y, en algunas ocasiones comprueban (oh sorpresa!) que algunos valores numéricos del indicador en ambas plataformas NO siempre son exactamente iguales. ¿Qué está pasando?

¿Quién será el culpable?

Aquí entra en juego la variabilidad en la personalidad humana, pero tomaré un caso medio para que nadie se ofenda ni se sienta aludido.

Imagino que la primera idea que vendrá a la mente de la mayoría es que ESA nueva versión del indicador NO está correctamente programada o contiene errores. Quizás haya quien piense que tampoco lo está la anterior. O que no lo ha estado nunca ninguna.

Realmente yo nunca he visto un caso tan grosero que llegue a alterar el trazado de las curvas [se trabaja mucho para que eso no pase] pero, y fíjense en lo que les voy a decir: ni siquiera descarto que eso pueda pasar en algún caso puntual.

«Pero, ¿y cómo lo admite con tal desparpajo!?», pensarán los que ya me han condenado antes de iniciar la simple exposición. Pues porque podría llegar a ser así y si tiene la paciencia de seguirme un poco más lo entenderá. Ahora viene lo interesante.

¿Cómo funciona la relación entre indicadores y plataformas?

De este efecto antes explicado [problemas de concordancia exacta] me di cuenta ya en mis primeras migraciones de herramientas y, a la postre siempre acaba siendo uno de mis peores dolores de cabeza. De hecho que el 99,99% de los usuarios nunca se percaten o lo aprecien jamás es motivo de un cierto orgullo. De hecho la mayoría supongo que tendrá primera [inquietante] noticia aquí.

Así que como me di cuenta (como afectado) de este tema hace tiempo y tuve que investigar a qué era debido, paso a detallarlo cosa que, dicho sea de paso, tampoco conozco que nadie haya hecho antes, lo que en su día me habría ahorrado MUCHO trabajo y pesquisas, y fue un problema añadido. [Igual alguien alguna vez me lo agradezca].

Lo primero que necesitamos hacer es dividir el proceso en bloques para poder asignar la responsabilidad a cada posible parte.

Empecemos por el indicador, principal sospechoso. ¿Qué es y qué hace un indicador? Básicamente un indicador (todos ellos) es un algoritmo compuesto de una o varias fórmulas matemáticas que toman una serie de datos, los procesa y entrega uno o más resultados de esa operación.

¿Cuál es el papel de la plataforma? Pues, en toda su complejidad, básicamente dos:

  • Ofrece los datos de entrada; y
  • Gestiona las salidas generalmente en forma de representación gráfica

Así, en un esquema básico de proceso, a la plataforma le corresponde la «entrada» y la «salida» , mientras que al indicador le corresponde el «proceso» de los datos.

¿De dónde vienen las diferencias?

Una vez constatadas que en un determinado mismo gráfico entre dos plataformas de trading existían diferencias (generalmente pequeñas) en los valores de salida, cabía descubrir qué pasaba, dónde y, a ser posible, cómo solucionarlo/minimizarlo.

Como siempre en estos casos se trabaja por eliminación, aislando cada elemento participante. Así lo hicimos empezando por el propio indicador. ¿Había alguna diferencia entre los algoritmos que justificase esas diferencias? La respuesta fue que no. El algoritmo (la fórmula) era EXACTAMENTE la misma en todos los casos y calculada de la misma forma y en el mismo correcto orden.

El indicador toma una serie datos de la plataforma, opera con ellos y entrega los resultados de nuevo a la plataforma, que acaba convirtiéndolos en un gráfico.

Así había que prestar atención ahora a las plataformas y examinarlas dento de nuestras limitadas posibilidades pues los fabricantes, como es natural, no se prestaban a dar mucha información técnica.

Como en muchas de mis herramientas el valor «volumen» está incorporado, empezamos por ahí y como, por fortuna, podemos visualizar ese valor individualmente simplemente desplegándolo separadamente en una ventana del gráfico, la sorpresa fue considerable.

En la mayor parte de los casos donde observamos diferencias en los valores del indicador era porque había variaciones entre los valores de los volúmenes. Recuerdo que estamos hablando de mismos períodos de mismos activos. ¿Por qué no coincidían exactamente? ¿Cuál volumen era el correcto?

Bienvenidos al laberinto de los datos

Comunicamos (amablemente) estas diferencias a algunas plataformas, y les consultamos a qué podían ser debidas. De entrada, y como era previsible, todas afirmaron sin dudar que SUS datos eran los correctos, que obtenían de tal o cual fuente de datos totalmente fiable y certificada. Y, ¿saben qué? TODOS decían la verdad.

Entonces, ¿qué pasaba? Pues, después de no pocas pesquisas y esfuerzos entre un laberinto de suministradoras primeras de datos, fuentes oficiales y mercados, resultó que NO EXISTÍA [y no tengo noticia que eso haya cambiado] un sistema internacional estándar de contabilizar el volumen negociado.

Eso significa que, según unos u otros, volúmenes negociados fuera de mercado, o en operaciones realizadas en aperturas o cierres, se contabilizan en un bloque temporal u otro, total o parcialmente, sin acabar de aclarar muy bien quién hacía qué y cómo. [Por no hablar de mercado paralelos, creadores de mercado, dark pools y otras lindezas].

Así que tuvimos que acostumbrarnos a vivir sabiendo que, al menos en uno de los datos que manejaba el algoritmo, había variaciones entre los datos suministrados según el tipo activo, de derivado, el suministrador de datos de cada plataforma y un montón de variables más completamente imposibles de prever. [Puedes hacer clic en lo gráficos para observarlos en detalle]

La buena noticia es que, después de [como pueden comprobar] estudiarlo MUY detenidamente, llegamos a la conclusión que, por mucho que haya diferencias al contabilizar algunas variables concretas, si ese MÉTODO era constante para cada plataforma concreta NO AFECTABA para nada la coherencia de la herramienta.

Se observarían diferencias en los valores del indicador porque existían diferencias en la serie de datos a procesar. En general eran diferencias porcentualmente pequeñas y difícilmente apreciables sobre el trazado de la curva.

En el fondo, que determinadas operaciones se contabilicen ahora o más tarde, si siempre se hace del mismo modo, no afecta en absoluto el resultado final, por más que pueda modificar puntualmente los valores.

Otro de los «descubrimientos» que obtuvimos del análisis del problema comparando una buena cantidad de plataformas fue que, en general, la calidad de los datos ofrecidos era directamente proporcional a su precio de suscripción, cosa que tampoco debería sorprender a nadie.

Pero, con el dato «precio» no hay nunca duda ¿O sí?

«Pero, al menos», -me dirá el amable y paciente lector- «sabemos que los datos de precio serán siempre correctos e idénticos en todas las plataformas». Y yo les responderé que sí, que CASI SIEMPRE eso es así.

Haz clic para aumentar

Debería explicarles en este punto que las plataformas de trading son, en esencia, bases de datos gráficas. Contratan un servicio externo que les suministra los datos del mercado en tiempo real [que almacenan en su base de datos] y se los hace llegar por conexión telemática.

Pero esas conexiones pueden ser de mejor o peor calidad, tanto en velocidad como en fiabilidad. Pero, incluso las de más alta calidad, no están exentas de pequeños errores de transmisión. Los más groseros son detectados y corregidos (manualmente) de la base de datos de cada plataforma, pero cuando son pequeños o afectan sólo detalles concretos pueden pasar desapercibidos.

Un Futuro DAX en 30 minutos graficado en dos diferentes plataformas

Estos gráficos sólo son pequeñas muestras (convenientemente lejanas) de algunas diferencias entre plataformas en los datos de entrada. Podrían parecer intrascendentes (lo serían en el 99,99% de los casos) pero en indicador cuyo algoritmo contemplase esos detalles generaría problemas de concordancia exacta.

O, incluso, desplazando una vela de hora… [al fin i al cabo, es sólo un bit de error]

Aprovecho para comentar que, si en alguna ocasión detectan algún error en algún gráfico, sea grande o pequeño, si lo comunican a su plataforma se lo agradecerán mucho, porque así lo podrán corregir manualmente.

Así que llegamos a una primera conclusión que, aunque el sospechoso probable parecía ser el indicador, todos los indicios apuntan a que el principal causante de las diferencias finales, son los datos [presuntos inocentes]. Y, lógicamente, si los datos son distintos, también lo serán los valores resultantes una vez procesados.

Si quieren que les haga una confesión, ocuparme y preocuparme por la CALIDAD de los datos ofrecidos por determinadas plataformas ha sido una de las razones por las que he ido abandonando el desarrollo en algunas de ellas que, por más que sean populares, tienen [en mi modesta opinión] muy descuidada la calidad de los datos que ofrecen a sus usuarios. Así que me pregunté «¿para qué esforzarme en mantener unas buenas herramientas si los usuarios trabajan en un entorno de datos de mala calidad?»

¿Te has preguntado nunca si vale la pena trabajar con una plataforma que te ofrezca datos inexactos o descuidados, por popular que sea?

Si los datos de la serie de origen son distintos, una vez procesados, también lo serán los resultados

Sofisticando el error

Permítanme que acabe ya con un último apunte, que les aseguro que dejar el tema sólo en esta entrada no hace justicia a la cantidad de horas que, durante años, le he tenido que dedicar a este complejo tema.

Después de entender y asumir la primera parte de esta exposición [asumirla porque está TOTALMENTE FUERA de mis posibilidades evitarla o solucionarla] me encontré con una segunda «patología» .

En este caso, miraba y remiraba y no detectaba variaciones en los datos que justificasen unas pequeñas (pequeñísimas, generalmente) variaciones permanentes en los resultados. De hecho, propiamente deberíamos hablar de mínimas desviaciones.

Así que había que volver a investigar de dónde venían. Como he explicado en alguna otra parte, mis herramientas son lo que conoce habitualmente como «de 2ª generación» , o sea, que incorporan como elementos herramientas de 1ª generación, en nuestro caso, indicadores anteriores.

Por otro lado, muchos de esos indicadores clásicos [ RSI, Momentum, Medias, MACD, Escocásticos, etc.] la mayoría de plataformas los tienen integrados en forma de funciones predefinidas [built-in, que diríamos en argot].

Sus formulaciones son conocidas, pero no es fácil acceder a comprobar cómo están programadas en cada plataforma. Y, una vez más después de bastante trabajo y elucubraciones, acabamos detectando que había en ocasiones diferencias en la forma de cálculo de algunas de estas funciones/indicadores.

Pequeños matices, como utilizar un tipo de alisado en lugar de otro, un tipo media específica u otra más avanzada. Detalles que me llevaron, por ejemplo, a darme cuenta que el uso y elección de las medias utilizadas en cada parte de un algoritmo podía modificar sutilmente el resultado [para mejorarlo o para empeorarlo]. Por eso les he estado mostrando parte de ese trabajo recopilado en mis entradas sobre medias móviles en este mismo blog.

Sé que es la nuestra es una especialidad MUY peculiar, donde encontramos traders que programan y programadores metidos en temas de trading, pero no muchos programadores que sean, a la vez, traders [y viceversa].

Lo explico porque todos los programadores nos hemos encontrado en algunos casos y lenguajes que no sólo importa el qué, sino el cómo y en qué orden. En algunos casos [pocos, es cierto] algunas funciones estaban bien programadas, aunque con algún detalle incorrecto. Para explicarlo gráficamente, la imagen siguiente es propiamente la de un sandwich sólo que con algún «detalle» incorrecto.

Y así queda básicamente explicado por qué en la mayor parte de los casos en que se observen diferencias entre dos indicadores idénticos [míos o de quien sean] en dos diferentes plataformas, por favor no saquen conclusiones precipitadas.

Y, la moraleja de todo esto, es que:

  1. no siempre hay que disparar sistemáticamente sobre el pianista si algo no suena bien. Puede que el piano o la partitura tengan algo que ver.
  2. explicar todo esto por mail era muy complicado y difícil cada vez que alguien me lo consultaba, así que queda desarrollado para todos ellos de ahora en adelante.

Espero que alguien haya llegado hasta el final y que le haya resultado útil e instructivo para conocer mejor algunos aspectos poco conocidos del trading, las plataformas y los indicadores.

Gracias por llegar hasta aquí.


Axiomas Que Son Falacias

Axiomas Que Son Falacias

Hay algunas piezas del puzle del trading que, definitivamente, parecen no encajar nunca. Desde que hace ya unos cuantos años me interesé por el estudio de los Mercados, hay algunos aspectos contra los que topo violentamente. Temas [para mí] inabordables y que me dan mucho que pensar.

El trading está repleto de falsas verdades, comúnmente aceptadas, pero que no resisten ningún estudio serio y pormenorizado

Primero culpé a mi desconocimiento, luego a mis problemas de enfoque. Sin duda sigo sin saber muchas cosas, y sigo sin saber enfocar otras tantas, pero algo más falla y ya empiezo a considerar que está en el propio sustrato.

Lo voy a enunciar hoy claramente [una vez más] para que los puristas me lapiden públicamente, pero creo que en el trading [en general] está repleto de falsas verdades, comúnmente aceptadas, pero que no resisten ningún estudio serio y pormenorizado. El método científico, la lógica y algunos postulados del trading no parecen llevarse nada bien. Algunas falsas verdades que [y perdonen la brutal sinceridad] los traders de a pie seguimos como corderos camino del matadero.

Ya hace mucho que enuncié mi propia forma de trabajo: la del desaprendizaje. Está bien que todo el mundo considere que las cosas son así pero déjenme que, una vez las aprenda, las compruebe por mí mismo, por si acaso. Ese es un camino largo, penoso y tortuoso, pero que sin duda nos lleva a edificar siempre sobre cimientos más firmes que darlo todo por cierto simplemente porque alguien lo dijo hace 5 o 50 años en un libro o en una conferencia.

Aprendo para «desaprender«, para comprobar si las cosas son realmente así o sólo lo parecen, aunque lo parezcan por consenso muy mayoritario. Aunque lo parezcan por indiscutible tradición.

Les voy a poner sólo un ejemplo de a qué me refiero. Muchas veces, en el trading, algo se convierte en una verdad absoluta e indiscutible sólo porque quien lo dice ganó mucho dinero [o eso creemos] y explica en un libro que lo consiguió así [o eso dice él]. Esto es conocido dentro del mundo de la lógica como una Falacia Argumentum ad verecundiam o de «argumento de autoridad«, que se basa en defender algo con la única razón de que quien lo afirma tiene autoridad en la materia [en nuestro caso, porque ganó dinero].

Aprendo para «desaprender«, para comprobar si las cosas son realmente así o sólo lo parecen, aunque lo parezcan por consenso muy mayoritario. Aunque lo parezcan por indiscutible tradición.

Evidentemente, las cosas no son como son porque alguien lo diga, sino porque se demuestre realmente que lo son. Tampoco dejan de serlo porque quien lo diga sea un pelagatos, como yo. La Ciencia y la Filosofía tienen estas mismas reglas [lo siento] y si tuviera tiempo [y a alguien más interesase] intentaría demostrarlo con algunos ejemplos más.

La buena noticia [al menos para mí], es que algunas cosas en las que trabajo sí que encajan. O sea, que no creo que todo sea falso ni falaz.

Trabajo para arrojar las ideas contaminadas lejos de mis diseños y herramientas, aunque no siempre lo consiga. Quizás lo consiga o quizás no pero ¿qué voy a perder por intentar cometer mis propios errores en lugar de andar perpetuando los de otros?

El desafío es apasionante, enriquecedor y, si se consigue, oculta un premio magnífico. Y, si no, todo ese conocimiento será aplicable a otros desafíos profesionales.

¿Qué voy a perder por intentar cometer mis propios errores en lugar de andar perpetuando los de otros?

En este punto no se trata tanto de diseñar complicados algoritmos sino, simplemente, de separar el grano de la paja o, si lo prefieren, la señal del ruido.

La Prodigiosa Economía de las Ideas

La Prodigiosa Economía de las Ideas

Si yo te doy un euro y tu a mi me das otro, al final terminamos los dos con un euro, exactamente igual de como empezamos.

Pero si yo te doy una idea y tú a mí me das otra, al final tenemos dos ideas cada uno. En términos económicos, ambos hemos doblado nuestro capital.

Eso es un buen negocio y el resto, paparruchas.

Este blog pretende TRAFICAR en ideas.

Los «Es Peor» de la Información

Los «Es Peor» de la Información

Es peor tener MALA información que NO tener información, porque la mala información te hace tomar malas decisiones.

Es peor tener DEMASIADA información que NO tener información, porque crea la falsa sensación de estar bien informado cuando, simplemente, estas saturado, aturdido e infoxicado.

No necesitas MUCHA información, sino POCA y FIABLE. Con eso basta para tomar buenas decisiones.

Jugar Bien Tus Cartas

Jugar Bien Tus Cartas

Hay poca verdad en los mercados y NULA en la actividad del trading.

De hecho, como ya he publicado en alguna ocasión, opino que la principal función de los Mercados es la de GENERAR CONFUSIÓN para ocultar los datos relevantes. Ya que, según las propias reglas del mercado, la verdad debe existir como variable en el sistema, los mercados generan una cantidad ingente de ruido para ocultarla. Los pocos que son capaces de reconocerla e identificarla son los que tienen alguna posibilidad de enriquecerse.

Considero a los mercados como el sistema de información humano más complejo jamás creado.

Descubrir, aislar y catalogar la escasa verdad fluyente y filtrar el ruido y la mentira [deliberada o no] es algo que merece la categoría de RETO. ¡Me encanta! Me siento como una mezcla a partes iguales del Sam Spade en “El Halcón Maltés y del John Forbes Nash novelado en “Una Mente Maravillosa”, escribiendo sobre los cristales los principios del Equilibrio de Nash y la Teoría de los Juegos.

Me gusta el trading especialmente porque considero a los Mercados como el sistema de información humano más complejo jamás creado y eso es un DESAFÍO APASIONANTE. Es mi propio laboratorio de ideas.

Para mí, el trading es un juego estadístico donde las certezas no existen y sólo se trabaja con probabilidades. Para entendernos, para mí es más parecido al Póker o al Black Jack [o al dominó, en versión más hispánica] que a la ruleta o a la lotería.

Si estuviéramos ante un juego de azar puro como la lotería, todo se basaría en la suerte. Todos tenemos las mismas opciones al comprar un número y acertar el premio mayor no tiene mayor mérito. Le toca a quien le toca y si juegas más, tienes proporcionalmente más probabilidades.

Analizar los mercados desde el punto de vista de la gestión de la información, es como entender cómo gestiona sus cartas un experimentado jugador de póquer.

Pero convendremos todos que, independientemente del oponente, en un juego como el póquer [o dominó o la mayor parte de juegos como los antes enunciados] un jugador novel tiene muchas menos opciones de ganar que uno experimentado. ¿Quiere eso decir que el experimentado ganará siempre? Tampoco. Está el factor azar sigue presente en las bazas que se le presenten en cada partida y momento. La diferencia es que, con ellas en la mano, sabe gestionarlas mejor que el novato. Incluso sabe cuándo es conveniente NO jugar y dar una mano por perdida.

Por eso mi orientación es analizar los mercados desde el punto de vista de la gestión de la información, del mismo modo que intentaría entender cómo gestiona sus cartas un experimentado jugador, sean las cartas que sean las que le llegan en la mano.

Al final, ganar con una pareja de doses en el póquer, o en el dominó cargado de dobles, es una hazaña al alcance sólo de jugadores experimentados.

Por Qué El Análisis Fundamental No Me Sirve

Por Qué El Análisis Fundamental No Me Sirve

Respeto mucho todas las opiniones, pero me gusta dar mis razones y argumentarlas. Además, la ventaja que tiene ser un indocumentado en temas económicos es que uno carece del pudor de los expertos para decir enormes inconveniencias. Probablemente valga la pena mirar la Economía desde el inocente punto de un humilde técnico para preguntarse algunos por qués, aunque podamos ser acusados de lerdos en el intento.

Yo me pregunto: ¿cómo pueden quebrar de forma inesperada grandes corporaciones, bancos o entidades de enorme peso económico, si deben rendir cuentas públicas cada trimestre?

¿Cómo grandes corporaciones pueden estar reportando al mercado buenos fundamentales y un mes más tarde estar quebrados?

No hablo sólo de Lehman o de Enron, por poner dos casos suficientemente conocidos en mercados maduros, bien regulados y muy estrictos.

¿Acaso ningún analista fundamental pudo anticipar con los últimos datos públicos en la mano que esas entidades estaban en serios problemas antes de desplomarse? ¿Cómo las grandes corporaciones pueden estar reportando al mercado buenos fundamentales [o, simplemente, aceptables] y un mes más tarde estar quebrados?

¿Estados contables? ¿Activos y pasivos? ¿PER? ¿Beneficios por acción?… ¿Ningún dato visible en los últimos resultados ofrecidos podían anticipar que cotización de Lehman caería un 70% en un día y, al siguiente, quebraría?

Para trabajar con información necesitas que la materia prima sea de calidad

Ahora voy a traer el comentario a mi especialidad: el Tratamiento de la Información.

Para trabajar con información necesitas [como en casi todo] que la materia prima sea de calidad. Si estás midiendo la humedad, el voltaje o la temperatura con sensores inadecuados obtendrás lecturas erróneas y, por lo tanto, tus conclusiones también lo serán.

Pero, si en lugar de tener lecturas directas objetivas, los datos deben ser suministrados por un tercero, empiezan los problemas. Como poco habrá que contemplar un margen de error de observación. La fuente no es tan fiable como debería porque no es ni directa ni automática.

Pero en el caso que los resultados de las mediciones beneficien o perjudiquen al observador que las suministra, esa fuente es parcial y, por muy honesta que sea, debería ser desechada pues esos datos forzosamente hay que considerarlos contaminados en origen. Es una fuente no fiable. Es como preguntarle a un niño por sus notas. Te dirá la verdad cuando sean excelentes, parte de la verdad cuando no sean tan buenas, y mentirá sin pudor cuando sean malas.

Si aplicamos la metodología de la Teoría de la Información, resulta una pérdida de tiempo trabajar con datos facilitados por parte interesada.

Si aplicamos la metodología de la Teoría de la Información, resulta una pérdida de tiempo trabajar con datos facilitados por parte interesada.

Así que, entre lo malo y lo peor…, creo que me quedo con lo malo. Seguiré intentando separar ruido de señal y discriminando señales fiables de dudosas a través del movimiento del precio, pero voy a seguir sin prestar el mínimo crédito a informaciones oficiales, paraoficiales, pseudooficiales, publicadas o rumores. Cualquier fuente interesada contamina los datos, aunque sean completamente ciertos. Es una pena, pero es así.

Si un activo cerró ayer a 18,31, eso es un dato; si el balance de esa empresa dice que sus beneficios crecieron un 17% el último trimestre, es una opinión [la suya] aunque un grupo de bien pagados auditores la certifiquen [las cuentas de Lehman y Enron también estaban auditadas]. Y no hay manera de operar matemáticamente con opiniones.

Cualquier fuente interesada contamina los datos, aunque sean completamente ciertos.

Sobre Fuentes Fiables y Fuentes Contaminadas

Sobre Fuentes Fiables y Fuentes Contaminadas

Dentro de los muchos derivados aplicados a la Teoría Matemática de la Información [TI] originariamente propuesta por Shannon y Weaver, uno de los aspectos desarrollados fue el de la catalogación de las fuentes de datos.

Por no alargarme innecesariamente, la importancia de escoger las fuentes de datos adecuadas es [como parece obvio] básico para poder después hacer un análisis correcto de los datos y obtener respuestas veraces a las preguntas propuestas.

Para resumirlo, en un esfuerzo máximo de simplificación, se dividieron la fuentes en dos únicos tipos, las denominadas FUENTES VERACES y las FUENTES CONTAMINADAS. Para que sea más fácilmente entendible lo trasladaré directamente al campo de los Mercados, tal y como yo lo entiendo y aplico desde hace años.

Como FUENTES VERACES entendemos aquellas que nos proporcionan informaciones PÚBLICASÚNICAS y UNÍVOCAS. Son accesibles para todos, y para todos tienen un mismo valor en un mismo momento. Esas fuentes [en nuestro caso y en esencia] serían las cinco básicas: máximo, mínimo, apertura, cierre y volumen.

Como «fuentes veraces» entendemos aquellas que son directamente accesibles para todos, y para todos tienen un mismo valor en un mismo momento.

Como FUENTES CONTAMINADAS entendemos [siempre desde la perspectiva de la TI] cualquier dato no obtenido de manera directa. Por poner un ejemplo, si obtenemos la temperatura de una determinada estancia a través de un sensor homologado y conectado directamente a nuestro equipo de proceso, la fuente es veraz; pero si enviamos a un ayudante a observar la temperatura en una pantalla y nos la comunica, la fuente pasa a estar CONTAMINADA, y todos los resultados posteriores estarían en cuestión, aunque el dato sea correcto.

Así, cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina y, en consecuencia, deberemos descartarla [o tener este hecho muy en cuenta].

Con esta visión tan estricta de la calificación de las fuentes, la TI se cura en salud, pues pone en cuestión cualquier tipo de información que no sea directamente verificable por todos los observadores a un tiempo. Con ello elimina de la ecuación tanto los errores, como la información manipulada en beneficio de algo o de alguien.

Cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina

La información manipulada no tiene por qué ser estrictamente falsa. La «buena» información manipulada puede ser correcta [o casi] en sus datos, pero también puede ser muy tergiversada en la presentación interpretación de los mismos porque, para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona.

Desde ese estricto punto de vista [quizás equivocado, pero metódico] habrá que descartar las informaciones suministradas por los medios de comunicación [TODOS, desde los diarios especializados hasta las redes sociales, pasando por éste desde el que ahora mismo yo estoy opinando], así como también las suministradas directamente por los actores económicos [empresas, sectores o países], por ser datos interesados suministrados por parte; con lo que el análisis fundamental (AF) quedaría fuera del ámbito de cualquier estudio ni remotamente basado en la TI.

Para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona

Desde el punto de vista de la TI, el gran truco de los mercados financieros no es tanto la ocultación de los datos, sino el de la saturación de información [infoxicación], mezclando muchas fuentes, casi todas ellas contaminadas [interpretadas, opinadas y/o interesadas] creando una tremenda confusión [ruido] capaz de ocultar las trazas de las fuentes veraces [señal] y dificultando su interpretación.

Realmente, desde el punto de vista de la TI, en esos mercados que aparentemente bullen de información, las fuentes veraces y fiables son muy escasas.

No Se Trata Tanto de los Datos…

No Se Trata Tanto de los Datos…

No se trata tanto de los datos, sino de cómo los leas.

Y te lo voy a demostrar.

Mismas letras, mismo código, diferente ordenación:

  • On es atart otnat ed sol sotad, onis ed omóc sol sael.

Mismo código, misma ordenación, menor cantidad de señal:

  • N s trt tnt d ls dts, sn d cm ls ls.

Introduciendo ruido blanco:

  • Nhoh shhe trhahta tahntho dhe hlohs hdhathohs, shihnho deh cóhmoh hlhohs lehahsh.

O introduciendo ruido gris:

  • dNrtoyusyeptverua,tla;tawxnitotde;l.oiupswdxauitzxo-s,suyi4n3ogdehtceómptolohsllhea,ahsñ.

El mercado aporta señal, pero está lleno de ruido. En el mejor de los supuestos, se puede parecer bastante a este último ejemplo, donde TODAS las letras y palabras están incluidas y en el orden adecuado, pero el nivel de ruido es tan alto que es casi imposible interpretar el mensaje original.

Códigos originales de la famosa máquina Enigma

¿Crees que todo esto es un simple divertimento? ¿Crees que no tiene nada que ver contigo y con el trading? Pues yo creo que lo tiene, y mucho. Y, si lo piensas un poco, seguro que a ti también te lo parecerá.

Por eso hay que trabajar en nuevas formas de visualizar esos datos, para separar los relevantes de los que no lo son; para aislar y anular el ruido al máximo posible.

Interpretar Códigos; Decodificar Velas

Interpretar Códigos; Decodificar Velas

Más que un artículo, esta entrada es un divertimento, un simple ejercicio en el que, si me lo permiten, les mostraré cómo nuestro cerebro es capaz de trabajar y asimilar nuevos códigos sin que apenas ello nos cause ningún esfuerzo.

Les vuelvo a plantear el supuesto de costumbre: imaginen al mercado reducido a un simple flujo de datos. Los ticks se van sucediendo a ritmo vertiginoso y aparentemente aleatorio. [Sobre si el mercado es o no aleatorio, les dejo este Una mosca contra el Random Walk]. La Teoría de la Información [TI] precisamente se basa en la codificación, transmisión y decodificación eficiente de cualquier tipo de información.

Imaginemos un flujo de datos tipo. Supongamos que una fuente nos envía una sucesión de caracteres. Nuestra primera impresión sería que si ese flujo de caracteres no viene correctamente ordenado y separado nos resultaría incomprensible. Pues, quizás sí o quizás no.

Imaginemosqueeseflujodedatosnosremiteuncontinuodecaracteressinespaciosintermediosdeseparaciónentrepalabrascomomensaje.

No parece que esta limitación nos impida comprenderlo. Somos capaces de completar la parte eliminada sin mayor dificultad y decodificarlo correctamente.

En este primer caso, de un mensaje de 118 caracteres hemos eliminado sólo los 19 espacios de separación entre palabras, apenas un 16%, y no muy crítico,

Otra cosa diferente sería que, por ejemplo se eliminasen completamente las vocales de un mensaje, sustituyéndolas por espacios en blanco.

En ese caso quizás ya tuviésemos más dificultades para entenderlo, pero seguramente acabaríamos comprendiéndolo en su mayor parte.

Este mensaje consta de 112 caracteres [129 contando los espacios] de los que se han eliminado 51 [un 45% del total y 5 diferentes caracteres] por lo que le estoy obligando a trabajar sólo con el 55% de la información. [Si tiene dificultades, vuelva a leer en párrafo anterior, ese que empieza diciendo «En ese caso…»]

Trabajar con el 50% de la información no es fácil, aunque no llegamos a ser conscientes de nuestras ocultas habilidades para decodificar criptogramas automáticamente.

Nueva demostración:

Sgeun etsduios raleziaods por una uivenrsdiad ignlsea,no ipmotra el odren en el que las ltears etsen ecsritas. La uicna csoa ipormtnate es que la pmrirea y la utlima ltera esetn ecsritas en la psiocion cocrreta. El retso peuden etsar ttaolmntee mal y aun pordas lerelo sin pobrleams pquore no lemeos cada ltera en si msima snio cdaa paalbra en un contxetso.

Ninguna dificultad, ¿verdad? En ese caso:

¡3XC3L3N73 3J3RC1C10!

La capacidad de nuestro cerebro para asimiliar códigos, decodificarlos y obtener mensajes coherentes es lo que me hizo pensar en aplicar los modelos de la TI en el proceso de decodificación de las series numéricas y gráficas que los traders manejan y entre las que buscan tendencias y giros, como elementos operativos básicos y en el diseño de nuevas herramientas para ayudar en este cometido.

64574M05 MUCH0 713MP0 D3 NU357R4 V1D4 C0N57RUY3ND0 4L6UN4 C054 P3R0 CU4ND0 M45 74RD3 UN4 0L4 LL1364 4 D357RU1R 70D0, S010 P3RM4N3C3 L4 4M1574D, 3L 4M0R Y 3L C4R1Ñ0, Y L45 M4N05 D3 49U3LL05 9U3 50N C4P4C35 D3 H4C3RN05 50NRR31R.

Las velas o barras están formadas por un grupo de datos que, si somos capaces de decodificar, contienen mensajes.

Distinguiendo Entre Datos, Información y Conocimiento

Distinguiendo Entre Datos, Información y Conocimiento

Si hoy SAN hubiese cerrado en 2€ y BBVA, en 2,95, eso serían DATOS.

Para muchos [seguramente la mayoría] el trading se reduciría a saber que hoy [hipotéticamente] habría que comprar SAN y que mañana, vender BBVA. Con eso les sobraría. Eso sería INFORMACIÓN.

Pero si quieres entender POR QUÉ habría que hacerlo así y no al revés, eso sería ya CONOCIMIENTO.