Etiqueta: TI

Por Qué El Análisis Fundamental No Me Sirve

Por Qué El Análisis Fundamental No Me Sirve

Respeto mucho todas las opiniones, pero me gusta dar mis razones y argumentarlas. Además, la ventaja que tiene ser un indocumentado en temas económicos es que uno carece del pudor de los expertos para decir enormes inconveniencias. Probablemente valga la pena mirar la Economía desde el inocente punto de un humilde técnico para preguntarse algunos por qués, aunque podamos ser acusados de lerdos en el intento.

Yo me pregunto: ¿cómo pueden quebrar de forma inesperada grandes corporaciones, bancos o entidades de enorme peso económico, si deben rendir cuentas públicas cada trimestre?

¿Cómo grandes corporaciones pueden estar reportando al mercado buenos fundamentales y un mes más tarde estar quebrados?

No hablo sólo de Lehman o de Enron, por poner dos casos suficientemente conocidos en mercados maduros, bien regulados y muy estrictos.

¿Acaso ningún analista fundamental pudo anticipar con los últimos datos públicos en la mano que esas entidades estaban en serios problemas antes de desplomarse? ¿Cómo las grandes corporaciones pueden estar reportando al mercado buenos fundamentales [o, simplemente, aceptables] y un mes más tarde estar quebrados?

¿Estados contables? ¿Activos y pasivos? ¿PER? ¿Beneficios por acción?… ¿Ningún dato visible en los últimos resultados ofrecidos podían anticipar que cotización de Lehman caería un 70% en un día y, al siguiente, quebraría?

Para trabajar con información necesitas que la materia prima sea de calidad

Ahora voy a traer el comentario a mi especialidad: el Tratamiento de la Información.

Para trabajar con información necesitas [como en casi todo] que la materia prima sea de calidad. Si estás midiendo la humedad, el voltaje o la temperatura con sensores inadecuados obtendrás lecturas erróneas y, por lo tanto, tus conclusiones también lo serán.

Pero, si en lugar de tener lecturas directas objetivas, los datos deben ser suministrados por un tercero, empiezan los problemas. Como poco habrá que contemplar un margen de error de observación. La fuente no es tan fiable como debería porque no es ni directa ni automática.

Pero en el caso que los resultados de las mediciones beneficien o perjudiquen al observador que las suministra, esa fuente es parcial y, por muy honesta que sea, debería ser desechada pues esos datos forzosamente hay que considerarlos contaminados en origen. Es una fuente no fiable. Es como preguntarle a un niño por sus notas. Te dirá la verdad cuando sean excelentes, parte de la verdad cuando no sean tan buenas, y mentirá sin pudor cuando sean malas.

Si aplicamos la metodología de la Teoría de la Información, resulta una pérdida de tiempo trabajar con datos facilitados por parte interesada.

Si aplicamos la metodología de la Teoría de la Información, resulta una pérdida de tiempo trabajar con datos facilitados por parte interesada.

Así que, entre lo malo y lo peor…, creo que me quedo con lo malo. Seguiré intentando separar ruido de señal y discriminando señales fiables de dudosas a través del movimiento del precio, pero voy a seguir sin prestar el mínimo crédito a informaciones oficiales, paraoficiales, pseudooficiales, publicadas o rumores. Cualquier fuente interesada contamina los datos, aunque sean completamente ciertos. Es una pena, pero es así.

Si un activo cerró ayer a 18,31, eso es un dato; si el balance de esa empresa dice que sus beneficios crecieron un 17% el último trimestre, es una opinión [la suya] aunque un grupo de bien pagados auditores la certifiquen [las cuentas de Lehman y Enron también estaban auditadas]. Y no hay manera de operar matemáticamente con opiniones.

Cualquier fuente interesada contamina los datos, aunque sean completamente ciertos.

Sobre Fuentes Fiables y Fuentes Contaminadas

Sobre Fuentes Fiables y Fuentes Contaminadas

Dentro de los muchos derivados aplicados a la Teoría Matemática de la Información [TI] originariamente propuesta por Shannon y Weaver, uno de los aspectos desarrollados fue el de la catalogación de las fuentes de datos.

Por no alargarme innecesariamente, la importancia de escoger las fuentes de datos adecuadas es [como parece obvio] básico para poder después hacer un análisis correcto de los datos y obtener respuestas veraces a las preguntas propuestas.

Para resumirlo, en un esfuerzo máximo de simplificación, se dividieron la fuentes en dos únicos tipos, las denominadas FUENTES VERACES y las FUENTES CONTAMINADAS. Para que sea más fácilmente entendible lo trasladaré directamente al campo de los Mercados, tal y como yo lo entiendo y aplico desde hace años.

Como FUENTES VERACES entendemos aquellas que nos proporcionan informaciones PÚBLICASÚNICAS y UNÍVOCAS. Son accesibles para todos, y para todos tienen un mismo valor en un mismo momento. Esas fuentes [en nuestro caso y en esencia] serían las cinco básicas: máximo, mínimo, apertura, cierre y volumen.

Como «fuentes veraces» entendemos aquellas que son directamente accesibles para todos, y para todos tienen un mismo valor en un mismo momento.

Como FUENTES CONTAMINADAS entendemos [siempre desde la perspectiva de la TI] cualquier dato no obtenido de manera directa. Por poner un ejemplo, si obtenemos la temperatura de una determinada estancia a través de un sensor homologado y conectado directamente a nuestro equipo de proceso, la fuente es veraz; pero si enviamos a un ayudante a observar la temperatura en una pantalla y nos la comunica, la fuente pasa a estar CONTAMINADA, y todos los resultados posteriores estarían en cuestión, aunque el dato sea correcto.

Así, cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina y, en consecuencia, deberemos descartarla [o tener este hecho muy en cuenta].

Con esta visión tan estricta de la calificación de las fuentes, la TI se cura en salud, pues pone en cuestión cualquier tipo de información que no sea directamente verificable por todos los observadores a un tiempo. Con ello elimina de la ecuación tanto los errores, como la información manipulada en beneficio de algo o de alguien.

Cualquier fuente que interprete, module o retransmita la información desde su origen, la contamina

La información manipulada no tiene por qué ser estrictamente falsa. La «buena» información manipulada puede ser correcta [o casi] en sus datos, pero también puede ser muy tergiversada en la presentación interpretación de los mismos porque, para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona.

Desde ese estricto punto de vista [quizás equivocado, pero metódico] habrá que descartar las informaciones suministradas por los medios de comunicación [TODOS, desde los diarios especializados hasta las redes sociales, pasando por éste desde el que ahora mismo yo estoy opinando], así como también las suministradas directamente por los actores económicos [empresas, sectores o países], por ser datos interesados suministrados por parte; con lo que el análisis fundamental (AF) quedaría fuera del ámbito de cualquier estudio ni remotamente basado en la TI.

Para la mayoría, importa mucho más la interpretación de los datos que los datos en sí, cosa que, lógicamente la TI cuestiona

Desde el punto de vista de la TI, el gran truco de los mercados financieros no es tanto la ocultación de los datos, sino el de la saturación de información [infoxicación], mezclando muchas fuentes, casi todas ellas contaminadas [interpretadas, opinadas y/o interesadas] creando una tremenda confusión [ruido] capaz de ocultar las trazas de las fuentes veraces [señal] y dificultando su interpretación.

Realmente, desde el punto de vista de la TI, en esos mercados que aparentemente bullen de información, las fuentes veraces y fiables son muy escasas.

Interpretar Códigos; Decodificar Velas

Interpretar Códigos; Decodificar Velas

Más que un artículo, esta entrada es un divertimento, un simple ejercicio en el que, si me lo permiten, les mostraré cómo nuestro cerebro es capaz de trabajar y asimilar nuevos códigos sin que apenas ello nos cause ningún esfuerzo.

Les vuelvo a plantear el supuesto de costumbre: imaginen al mercado reducido a un simple flujo de datos. Los ticks se van sucediendo a ritmo vertiginoso y aparentemente aleatorio. [Sobre si el mercado es o no aleatorio, les dejo este Una mosca contra el Random Walk]. La Teoría de la Información [TI] precisamente se basa en la codificación, transmisión y decodificación eficiente de cualquier tipo de información.

Imaginemos un flujo de datos tipo. Supongamos que una fuente nos envía una sucesión de caracteres. Nuestra primera impresión sería que si ese flujo de caracteres no viene correctamente ordenado y separado nos resultaría incomprensible. Pues, quizás sí o quizás no.

Imaginemosqueeseflujodedatosnosremiteuncontinuodecaracteressinespaciosintermediosdeseparaciónentrepalabrascomomensaje.

No parece que esta limitación nos impida comprenderlo. Somos capaces de completar la parte eliminada sin mayor dificultad y decodificarlo correctamente.

En este primer caso, de un mensaje de 118 caracteres hemos eliminado sólo los 19 espacios de separación entre palabras, apenas un 16%, y no muy crítico,

Otra cosa diferente sería que, por ejemplo se eliminasen completamente las vocales de un mensaje, sustituyéndolas por espacios en blanco.

En ese caso quizás ya tuviésemos más dificultades para entenderlo, pero seguramente acabaríamos comprendiéndolo en su mayor parte.

Este mensaje consta de 112 caracteres [129 contando los espacios] de los que se han eliminado 51 [un 45% del total y 5 diferentes caracteres] por lo que le estoy obligando a trabajar sólo con el 55% de la información. [Si tiene dificultades, vuelva a leer en párrafo anterior, ese que empieza diciendo «En ese caso…»]

Trabajar con el 50% de la información no es fácil, aunque no llegamos a ser conscientes de nuestras ocultas habilidades para decodificar criptogramas automáticamente.

Nueva demostración:

Sgeun etsduios raleziaods por una uivenrsdiad ignlsea,no ipmotra el odren en el que las ltears etsen ecsritas. La uicna csoa ipormtnate es que la pmrirea y la utlima ltera esetn ecsritas en la psiocion cocrreta. El retso peuden etsar ttaolmntee mal y aun pordas lerelo sin pobrleams pquore no lemeos cada ltera en si msima snio cdaa paalbra en un contxetso.

Ninguna dificultad, ¿verdad? En ese caso:

¡3XC3L3N73 3J3RC1C10!

La capacidad de nuestro cerebro para asimiliar códigos, decodificarlos y obtener mensajes coherentes es lo que me hizo pensar en aplicar los modelos de la TI en el proceso de decodificación de las series numéricas y gráficas que los traders manejan y entre las que buscan tendencias y giros, como elementos operativos básicos y en el diseño de nuevas herramientas para ayudar en este cometido.

64574M05 MUCH0 713MP0 D3 NU357R4 V1D4 C0N57RUY3ND0 4L6UN4 C054 P3R0 CU4ND0 M45 74RD3 UN4 0L4 LL1364 4 D357RU1R 70D0, S010 P3RM4N3C3 L4 4M1574D, 3L 4M0R Y 3L C4R1Ñ0, Y L45 M4N05 D3 49U3LL05 9U3 50N C4P4C35 D3 H4C3RN05 50NRR31R.

Las velas o barras están formadas por un grupo de datos que, si somos capaces de decodificar, contienen mensajes.

Tendencia es a Señal como Volatilidad a Ruido

Tendencia es a Señal como Volatilidad a Ruido

Hoy les voy a proponer una aplicación simple de los conceptos básicos de la Teoría de la Información [TI] sobre el análisis gráfico tradicional, una de las muchas que, basadas en esta metodología, somos capaces de hacer, y que cuestionan aspectos del AT tradicional.

Desde el punto de vista del análisis gráfico, la Regresión Lineal [RL] es la forma de aproximación estadísticamente más correcta a un conjunto de valores.

Por lo tanto, desde el punto de vista de la TI, hacer esto sería mucho más correcto que andar tirando líneas uniendo mínimos o máximos, que no son valores medios sino extremos y, precisamente por ello, estadísticamente poco significativos.

Los canales de desviación típica y de error típico deberían ser la herramienta utilizada para dibujar canales y no ese método -pido perdón por la expresión- hoy en día ya rupestre y sin fundamento lógico de hacerlo trazando paralelas desde máximos o mínimos.

Viendo el trazado y la pendiente de la RL de un tramo concreto de cotización, los traders lo identificaríamos con la TENDENCIA [sería matemáticamente más correcto], y desde el punto de vista de la TI estaríamos contemplando la SEÑAL.

Al mismo tiempo, los desplazamientos a ambos lados de la RL podríamos visualizar los efectos del RUIDO, desviando la cotización real de la señal pura. Sin ser exactamente lo mismo, podríamos asociarlo con lo que los traders generalmente asociamos con el concepto de VOLATILIDAD.

Más o menos, lo veríamos así:

senyal_ruido

Sería observar los mismos elementos bajo otros parámetros. Este tipo de visión alternativa fue la que, ya hace años, hizo que me plantease el diseño de algunas nuevas herramientas de trading que la mayoría de ustedes ya conocen y han tenido oportunidad de probar directamente.

El Modelo TI en el Trading

El Modelo TI en el Trading

Cuando hace ya bastantes años llegué al mundo del trading, no pude por menos que observar algunos paralelismos entre la estructura del trading [del e-trading, para ser más exactos] y ciertas partes de la Teoría Matemática de la Información [TI] según el Modelo de Shannon/Weaver.

Para empezar, este es el modelo básico de comunicación según la TI:

Observemos que, según esta arquitectura básica, hay algunos conceptos que merecen especial atención. A un lado tenemos la Fuente de información (mercado) y, en el extremo opuesto estamos nosotros mismos, los traders, como receptores y destinatarios de la misma.

El eslabón intermedio de la cadena (Transmisor y Receptor), así como la codificación, son ahora mismo íntegramente por vía telemática y digital, gracias a la popularización de la red [el e-trading del que antes hablábamos].

Por último, tenemos un último factor que la TI ya contempla como fundamental: el Ruido, como elemento distorsionador interpuesto. Como pronto veremos, el ruido tiene en el trading (y desde este punto de vista metodológico) especial relevancia, así como diferentes orígenes y causas, algunas accidentales y otras claramente provocadas.

Claude E. Shannon, el Sabio Malabarista

Claude E. Shannon, el Sabio Malabarista

Permítanme, antes de seguir, dedicar una líneas de humilde homenaje a Claude E. Shanon el creador de la Teoría Matemática de la Información [TI].

Tendemos a pensar que si el nombre de alguien no nos suena será porque no habrá sido muy relevante. Y, ciertamente, Shannon no es un personaje popular ni demasiado conocido. Pero quizás a partir de este artículo entiendan el por qué.

Shannon nació en 1916. Desde niño se sentía atraído por igual por las matemáticas y por la ingeniería; y como no era capaz de decidirse, cursó ambas carreras simultáneamente, obteniendo ambas licenciaturas en 1936, apenas cumplidos los 20 años. Posteriormente se doctoró en ambas en el MIT y a los 24 se ocupó en el desarrollo de los primeros ordenadores, en el equipo de Vannevar Bush.

Todos los que le conocían lo consideraban un tipo extraordinario pues era igualmente capaz de desarrollar una compleja teoría matemática en la pizarra como, inmediatamente después, tomar las herramientas y fabricar una máquina capaz de comprobarla. Y en ambas cosas destacaba.

En el MIT también trabajó con Norbert Wiener, creador de la cibernética y entro a formar parte de un reputado grupo de científicos que, durante la II Guerra Mundial, tuvieron un papel preponderante en el desarrollo de la tecnología que llevó a los EE.UU. a ganar la guerra y convertirse, desde ese mismo momento, en la primera potencia tecnológica mundial. [Gran parte de sus trabajos -como los de todo ese grupo- han sido y siguen siendo secretos… ¿Se entiende ahora la escasa «popularidad» de estos genios de mitad del S. XX?]

Básicamente, este grupo de pioneros de la cibernética estaba compuesto por Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor, George Stibitz o John von Neumann, entre otros. Pocos años más tarde publicaba su Teoría Matemática de la Información, de la que seguiremos hablando.

Diseñó ordenadores, autómatas y robots, como su famoso ratón Teseo, capaz de encontrar, por sí sólo, la salida de un laberinto.

Dentro de su leyenda de sabio excéntrico, era un apasionado del malabarismo. Hasta tal punto le apasionaban los malabares que diseñó máquinas malabaristas basadas en su teorema matemático sobre el tema:

Teorema del Malabarismo de Shannon:  ( F + D ) H = ( B + D ) N

El Teorema  esta esquemáticamente representado en el caso de las cascadas con tres bolas. En la ecuación, F es el tiempo que la bola pasa por el aire, D el que pasa en la mano, B el tiempo que la mano está vacía, N es el número de bolas, y H el número de manos.

Era famoso en los laboratorios Bell por montar en monociclo realizando equilibrios por los pasillos. La lista de sus inventos y patentes es interminable, al igual que la de premios y honores que le fueron concedidos.

Shannon se jubiló a los cincuenta años, un poco para huir de la pesada tarea de divulgar sus pensamientos y, sobre todo, para poder dedicarse a sus ingenios. En una de sus últimas entrevistas dijo:

«siempre he perseguido mis intereses sin prestar mucha atención a su valor financiero o para el mundo; he dedicado muchas horas a cosas totalmente inútiles»

Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.

Si a alguien se le ha despertado el deseo de conocer más cosas sobre este singular personaje, existe una biografía titulada C. E. Shannon: Collected Papers, de N. J. A. Sloan y editada por A. D. Wyner. Sin duda su vida da para una buena película.

Y, les recuerdo que todo esto tiene [a mi juicio] MUCHO que ver con el trading. En el próximo capítulo les explico por qué…

Shannon y la Teoría Matemática de la Información

Shannon y la Teoría Matemática de la Información

Bueno, esto no es nada fácil. De un blog se espera que el autor sea breve y ameno, y seguramente este no es un tema apropiado para explicar aquí con detalle pero, al menos, podemos probarlo. Intentaré empezar por el principio e ir al grano.

¿La razón de todo esto? Explicar hasta qué punto la Teoría de la Información (TI) me parece aplicable como metodología al estudio del funcionamiento de los mercados financieros y al trading.

La Teoría de la Información [TI] fue formulada a finales de la década de 1940 por el ingeniero y matemático Claude Elwood Shannon. En su origen esta teoría se refería solo a las condiciones técnicas en la transmisión de mensajes. Su primera versión apareció publicada en el Bell System Technical Journal en octubre de 1948, perteneciente a la Bell Telephone Laboratories, organización para la que Shannon trabajaba.

Muy poco después el sociólogo Warren Weaver acertó a entrever todo el potencial subyacente en el trabajo de Shannon y redacto un ensayo, que fue publicado junto al texto anterior en julio de 1949 bajo el título de «The Mathematical Theory of Communication«.

Click para descargar en PDF

En conjunto dieron lugar a un pequeño libro. De este modo, la unión de dos disciplinas diferentes produjo una obra de referencia duradera en el campo de la comunicación, entendido en el más amplio sentido. Lo habitual es que se aluda a estas concepciones como el Modelo de Shannon y Weaver, o como la Teoría de la Información [TI].

Este trabajo es de una excepcional importancia en el campo de la cibernética, siendo una de las obras de referencia básica. Shannon contempló por primera vez la transmisión de información como una teoría matemática dentro del campo específico de la probabilidad y la estadística, estudiando la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados.

En la próxima entrega, un poco más sobre Shannon, su teoría y su relación con los mercados financieros. [Por cierto, si quieren conocer el original, basta con que pulsen sobre la imagen de la portada del libro para obtener un PDF de la obra]

InfoTrading: Para Traders del S. XXI

InfoTrading: Para Traders del S. XXI

Podríamos llamarlo InfoTrading [Informational Trading o Inversión Informacional, en español]. El nombre seguramente ni siquiera sea importante, pero sí su objetivo, que sería estudiar el trading como análisis del flujo de datos y su correcta gestión.

No me refiero tanto a técnicas como el HFT [High Frequency Trading], interesantes pero muy alejadas de nosotros, traders de a pie. Lejos de ello, desde el principio me interesó descubrir hasta dónde podía llegar con las herramientas y plataformas disponibles para el usuario medio del trading.

La aplicación a la operativa bursátil de conceptos generales que nuevas disciplinas como la infonomía [gestión avanzada de la información] o las derivadas aplicativas de la Teoría de la Información (TI) aportan nuevas visiones y posibilidades a los postulados tradicionales del trading.

Mi trabajo de diseño aplicativo [la vertiente práctica de estas teorías] se basa en inferir de esos datos alguna nueva información que ayude en el trading diario.

Atacar los fundamentos de cualquier disciplina es una práctica bastante suicida. Lo sé y lo prudente [y lo cómodo] sería callar, porque ya me he ganado alguna descalificación de fondo.

En mi favor pesa que me importa un rábano. Yo no tengo ningún prestigio que defender, ni como analista, ni como gestor profesional, ni nada por el estilo. Me da absolutamente igual.

Por poner un ejemplo [de grueso calibre, pero suficientemente claro], el consenso general opina que la operativa en los mercados está básicamente relacionada con la economía, sus conceptos, sus noticias y sus ciclos. Después de muchos años, estoy convencido que el trading es básicamente un complejo problema de gestión de los flujos de información, y que los expertos mediáticos vienen a justificar a posteri cualquier movimiento en cualquier sentido.

La base es saber diferenciar los datos veraces de los que no lo son, y a operar sólo en función a los provenientes de las fuentes más fiables. Mi trabajo de diseño aplicativo [la vertiente práctica de estas teorías] se basa en inferir de esos datos alguna nueva información que ayude en el trading diario.

La aplicación en la operativa bursátil de conceptos de nuevas disciplinas como la infonomía o las derivadas aplicativas de la Teoría de la Información (TI) aportan nuevas visiones y posibilidades al trading.

Pero, ¿de verdad a alguien le interesa esto? Por lo general, a la mayor parte de los traders lo único que les interesa es qué comprar hoy y qué vender mañana. Lógico, pero triste. Sólo quieren información, el conocimiento [a la mayoría] les tiene sin cuidado, aunque es precisamente el conocimiento [y no la información] lo que los convertirá en traders consistentes.

Hoy, para acabar, les dejo con una de mis postulados de cabecera. Es la llamada Hipótesis de Lloyd y se la debemos a Seth Lloyd, catedrático de Ingeniería Mecánica en el Instituto de Tecnología de Massachusets (MIT), donde trabaja en problemas relacionados con los sistemas complejos [desde el Universo a los átomos] y la información. La Hipótesis de Lloyd enuncia que:

“Todo lo que merece la pena ser entendido de un sistema complejo, puede ser entendido en términos de cómo procesa información”

Una Mosca contra el Random Walk

Una Mosca contra el Random Walk

Aunque generalmente lo que más se asocie a mi nombre sean los nuevos indicadores técnicos que, con mayor o menor fortuna, diseño de vez en cuando, realmente lo que a mí me apasiona del mercado bursátil es su propia estructura.

Mi visión de esa realidad es la del análisis del mercado desde su estudio como sistema complejo y de su flujo datos desde la óptica de la Teoría de la Información (TI). Mis indicadores son simples aplicaciones de algunas de estas ideas y reflexiones.

Esto viene a cuento porque periódicamente alguien recuerda la Teoría del Paseo Aleatorio (Random Walk). Esa teoría habla de mercados eficientes pero completamente aleatorios e impredecibles. De ser radicalmente cierta, cualquier intento técnico por obtener y procesar información del mercado sería inútil. Una auténtica pérdida de tiempo.

Desde el punto de vista de la Teoría de la Información, llamamos RUIDO a todo flujo continuo de información carente de todo patrón o de alguna serie lógica identificable. Es una sucesión completamente aleatoria de datos.

Así pues, yo debería tener una opinión al respecto, ya que pierdo mi tiempo [ni que sea mi tiempo libre] en tal ocupación.

Desde el punto de vista de la Teoría de la Información, llamamos RUIDO a todo flujo continuo de información carente de todo patrón o de alguna serie lógica identificable. Es una sucesión completamente aleatoria de datos.

Pero los que se dedican o conocen algo del mundo de la encriptación y de la criptografía saben lo difícil que es obtener “ruido puro”, es decir, una fuente de datos completa y genuinamente caótica y aleatoria. Parecerá difícil de creer, pero por aleatoria que pueda parecer una serie de datos, casi siempre se puede encontrar una serie lógica en ella, ni que sea generada por puro azar. ¿Paradójico? Ya ven, hasta el caos puro es difícil de obtener.

Los mercados son ruidosos, en ocasiones y en determinadas circunstancias, MUY ruidosos; pero NO ruido puro.

Por lo que voy viendo y entendiendo a lo largo de los años, en mi modesta opinión, los mercados son ruidosos, en ocasiones y en determinadas circunstancias, muy ruidosos, pero NO ruido puro. Y para no meternos en berenjenales técnicos, lo explicaré con un ejemplo.

¿Es aleatorio el vuelo de una mosca? Bueno, en determinadas circunstancias podría parecerlo. Imaginaos que entrase en la habitación donde estáis ahora mismo y tuvieseis que representar gráficamente su ruta. Va de aquí para allá, con cambios bruscos de dirección, golpeándose a veces contra ventanas y espejos, subiendo y bajando aparentemente sin mucho sentido. Trazado sobre gráfico tridimensional seguramente nos sería difícil decidir hacia dónde va o si va hacia algún sitio. Su vuelo nos parecería aleatorio, puro azar.

Pero, si oscurecéis el cuarto (cerráis las ventanas, apagáis las luces…) y dejáis el cuarto en semi-penumbra, mucho más oscuro que la salida del mismo, sea una puerta abierta o una ventana, veréis como el insecto se encamina directamente hacia ese punto y abandona la estancia.

Así, hemos descubierto el “factor ruido” en el aparentemente aleatorio vuelo de la mosca: la luz. La mosca siempre volará hacia la luz, si se concentra en un solo punto y no está difusa por todo el cuarto. Así, en ausencia de luz (que actúa como factor ruido) la tendencia del vuelo del insecto es clara.

Los que se dedican a la encriptación o criptografía saben lo difícil que es obtener “ruido puro”, es decir, una fuente de datos completa y genuinamente caótica y aleatoria.

Por ahora yo considero que el mercado es un sistema de información ruidoso, pero no ruido puro. Si algún día llegase a esa conclusión, ya no me interesaría en absoluto, ni como estudioso ni como inversor. Me jugaría mi patrimonio a los dados, ya que tendría semejantes probabilidades de éxito.

Somos Ricos (En Datos)

Somos Ricos (En Datos)

Releyendo la entrada anterior me preguntaba si muchos de los lectores no se sentirían algo incrédulos ante la posibilidad de desvelar algo de los impenetrables mercados sólo a través de cinco escuálidos datos numéricos.

Así que no me podido resistir a la tentación de utilizar un ejemplo tan breve como esclarecedor. Desde hace ya algunos años sabemos que toda la vida, en todas sus formas y matices nace por combinación de sólo cuatro elementos (nucleótidos).

Si nuestro código genético (y el de todas las formas de vida conocidas) resulta de la diferente ordenación de esos 4 elementos básicos, contar con cinco datos numéricos debería llevarnos casi hasta el entusiasmo.

Toda la vida, en todas sus formas y matices nace por combinación de sólo cuatro elementos

 Quizás no estamos tan inermes como algunos les pueda parecer.