Inteligencia Artificial archivos - Futurizable | Sngular
Enlaces rápidos
  • Blockchain
  • Big Data
  • Educación
  • Robótica
  • Espacio

Publicaciones en Inteligencia Artificial

La gran aportación de la Inteligencia Artificial a la medicina

Publicado el 15 octubre, 2020

Durante mucho tiempo la medicina ha recurrido a la informática como una herramienta más de cara a mejorar su actividad, ya sea en modo software o hardware se han estado ofreciendo multitud de utilidades por ejemplo para gestionar información en bases de datos, realizar mediciones y análisis de manera más precisa con todo tipo de dispositivos de hardware, automatizar procesos en laboratorio, gestionar ensayos clínicos, agilizar las comunicaciones entre profesionales, hospitales, centros de investigación gracias a Internet, …

Pero en los últimos años una nueva rama de la informática está realizando una aportación de otro calibre que ha cambiado el modelo, de forma que la tecnología deja de ser una simple herramienta, para convertirse en un elemento fundamental en el desarrollo de la medicina. Como os podéis imaginar se trata de la inteligencia artificial (IA) que, gracias a los avances del machine learning y el deep learning, está revolucionando la atención médica y ayudando a abordar algunos de los desafíos más importantes de los sistemas de salud. De esta forma, en la actualidad vemos como la IA está ayudando a mejorar los resultados en atención médica, la experiencia del paciente, la productividad y la eficiencia de la prestación de servicios relacionados con la salud.

Algunas aplicaciones de IA incluyen, por ejemplo, chatbots, que responden y ayudan a los pacientes a programar citas, ayudan en el procedimiento administrativo y también brindan comentarios médicos.

El contexto mundial de salud: más longevidad, mayores costes

Los extraordinarios avances en la asistencia sanitaria han creado una de las principales historias de éxito de nuestro tiempo. La ciencia médica ha mejorado rápidamente, aumentando la esperanza de vida en todo el mundo. Para 2050, una de cada cuatro personas en Europa y América del Norte tendrá más de 65 años.

A medida que aumenta la longevidad, el gasto en salud crece ininterrumpidamente. Sin un cambio estructural y transformador importante, los sistemas de salud tendrán dificultades para seguir siendo sostenibles.

Qué es la Inteligencia Artificial

Existen varias definiciones de IA. Una de las más concisas y prácticas es probablemente la que recoge el Parlamento Europeo: «La Inteligencia Artificial se refiere a sistemas que muestran un comportamiento inteligente al analizar su entorno y tomar decisiones, con cierto grado de autonomía».

La IA cubre el procesamiento del lenguaje natural (PNL), el análisis de imágenes y el análisis predictivo basado en machine learning.

La IA está presente, lo mismo que en salud, en la mayor parte de los negocios, ayudando a automatizar tareas que a su vez ahorran muchísimo tiempo y mano de obra.

Una compañía farmacéutica, por ejemplo, puede mejorar su cantidad y calidad de producción aplicando IA para pronosticar la demanda y el suministro futuros, la planificación de la producción, la logística, el movimiento del material, el ensamblaje de las piezas y todas las actividades relacionadas con la fabricación.

Procesamiento del lenguaje natural en Salud

Desde hace unos años disponemos de muchos nuevos datos y herramientas analíticas sofisticadas que nos permiten extraer un valor considerable de ellos. Podemos recoger y estructurar la información disponible en un área terapéutica y así evaluar los costes de las enfermedades, la eficiencia de un tratamiento (sus costes, beneficios y riesgos), comparar la efectividad de tratamientos diversos o medir los resultados de las intervenciones a largo plazo.

Solo PubMed contiene más de 26 millones de citas de la literatura biomédica extraídas de revistas científicas de biomedicina y de libros online.

Cada año se añaden 1 millón de nuevas citas médicas. A través de la minería de texto, podemos conseguir por medios automáticos o semiautomáticos buscar y explorar en grandes bases de datos para descubrir información valiosa y conocimiento.

Por otra parte, dado un conjunto de patentes o documentos «fuente», podemos utilizar la minería de texto para identificar las patentes que son «similares» y «relevantes» a los efectos del descubrimiento de nuevas variantes.

Además la minería de datos va acompañada de técnicas de transformación que nos permiten por ejemplo la codificación automática del historial clínico (CIE-9/10, ICD-9/10, ATC, …) o la detección de nombres de personas, direcciones o números de teléfono con el fin de ocultar la identidad de los pacientes en los registros médicos.

Historia Clínica Electrónica

La historia clínica electrónica, por ejemplo, es una fuente de inmenso valor para ser utilizada en el ámbito de la Inteligencia Artificial. Una historia clínica electrónica recopila la información médica de un paciente en formato digital e incluye información sobre sus antecedentes de salud, como son los diagnósticos, medicamentos, pruebas, alergias, vacunaciones y planes de tratamiento.

En España hay dos fuentes masivas de historiales clínicos:

  • BIFAP (Base de Datos para la Investigación Farmacoepidemiológica en Atención Primaria que integra la información contenida en historias clínicas electrónicas generadas en el primer nivel asistencial por médicos de familia y pediatras. En ella colaboran 9 Comunidades Autónomas y contiene datos de 5 millones de pacientes. Además contiene características demográficas, diagnósticos, eficacia, seguridad, datos de dispensación en farmacia, vacunaciones, etc.
  • SIDIAP es una base de datos que contiene la información de la Historia Clínica Electrónica de Atención Primaria de Cataluña y cuenta con datos de aproximadamente 6 millones de habitantes.

Real World Data

La Real World Evidence o Real World Data, en el área de salud se fundamenta en datos masivos recolectados de millones de pacientes en condiciones de la vida real, fuera del contexto de los ensayos clínicos.

De este modo, más allá de la eficacia y las toxicidad de un tratamiento, se evalúa la a calidad de vida del paciente, la adherencia o la capacidad de un paciente para hacer frente al coste del tratamiento. El procesamiento del lenguaje natural es un componente esencial de este área de conocimiento.

Voz del Paciente

La industria de la salud necesita comprender la retroalimentación que sus clientes actuales y futuros expresan en diferentes canales. La voz del paciente nos permite extender la información a una nueva área de contenido no estructurado: comentarios en foros de salud, redes sociales, encuestas, registros de call-centers, etc.

El procesamiento automatizado nos permite realizar este análisis con las características esenciales de calidad, volumen, tiempo de respuesta y uniformidad.

Farmacovigilancia

Las reacciones adversas a los medicamentos son el problema de seguridad más importante en el campo de la salud.

La Inteligencia Artificial puede contribuir de manera decisiva a promover la seguridad del paciente, monitorear proactivamente los eventos adversos y comprender su impacto en cada fase del desarrollo.

La IA garantiza el cumplimiento global y mejora la eficacia de una empresa en la notificación de efectos adversos, la gestión de la seguridad de los medicamentos y la mitigación de riesgos.

Aprendizaje automático unido a ingeniería lingüística

El Deep Learning es, en general, la mejor opción para la categorización de texto cuando hay disponible un gran volumen de datos de entrenamiento. Cuando los datos de entrenamiento son escasos, otras técnicas de aprendizaje automático más clásicas como los árboles de decisión o SVM, en general, brindan mejores resultados con un menor costo computacional.

Las soluciones híbridas que combinan el aprendizaje automático (la opinión de la máquina) con un postfiltrado basado en reglas (una corrección similar a la humana) proporcionan los mejores resultados en términos de precisión y deben volverse populares en un futuro próximo.

Presentación de Konplik Health

Konplik.health es una nueva iniciativa empresarial enfocada el desarrollo de soluciones de Inteligencia Artificial para la industria de la salud.

La propuesta de valor basada en Inteligencia Artificial de Konplik se nutre de los 22 años de experiencia en este ámbito de la empresa MeaningCloud (la plataforma de procesamiento del lenguaje natural) empaquetados en esta nueva empresa independiente.

Konplik extrae valor de los datos no estructurados en el sector sanitario. Aprovechando al máximo un software patentado y las innovadoras herramientas y algoritmos de procesamiento de datos basados ​​en Inteligencia Artificial de desarrollo propio para ayudar a descubrir nuevas fuentes de ingresos en la atención médica.

Con Konplik, por ejemplo, es posible identificar los costos de los tratamientos médicos, su eficiencia (costo, beneficios y riesgos), referencias a medicamentos, efectos secundarios o resultados a largo plazo.

Otros ejemplos de proyectos que ofrecen una valiosa riqueza de información incluyen búsqueda y evaluación para el descubrimiento de fármacos, experiencia del paciente, precios dinámicos, optimización de ingresos, monitoreo de la competencia o verificación de cumplimiento.

La plataforma tecnológica de Konplik conecta y extrae información valiosa de una amplia gama de conjuntos de datos externos:

  • Solicitudes de patente
  • Investigación científica
  • Registros de salud electrónicos
  • Ensayos clínicos
  • Inteligencia de licitación
  • Inteligencia sobre escasez
  • Análisis competitivo
  • Los datos de ventas
  • Interacciones de redes sociales

El procesamiento del lenguaje natural (PNL) prácticamente ha logrado la calidad humana (o incluso mejor) en muchas tareas diferentes, principalmente basadas en los avances en las técnicas de aprendizaje automático/aprendizaje profundo, que permiten hacer uso de grandes conjuntos de datos de entrenamiento para construir modelos de lenguaje, pero también debido a la mejora en los motores centrales de procesamiento de texto y la disponibilidad de bases de datos de conocimiento semántico.

Para conocer un poco mejor el proyecto Konplik Health compartimos a continuación la entrevista realizada a su CEO Jose González.

¿Cómo surge la idea de crear Konplik Health?

No ha sido precisamente una idea feliz repentina. En MeaningCloud, comenzamos a trabajar en I+D sobre aplicaciones de nuestra tecnología de Procesamiento de Lenguaje Natural en Salud hace unos 10 años. Entonces ni siquiera nos llamábamos MeaningCloud, sino Daedalus. En 2014, la farmacéutica Pfizer, desde su sede en Nueva York, nos seleccionó para abordar un proyecto piloto de localización y extracción de información automática de oportunidades de negocio. Ese proyecto, ejecutado en tres meses, resultó exitoso y aceleramos nuestros planes de implantación de una filial en Estados Unidos. De ese modo, en junio de 2015 quedaba constituida nuestra filial MeaningCloud LLC y firmábamos un contrato a tres años como proveedores de Pfizer. Mientras tanto, en España participábamos en la operación de creación de Sngular, que entraba como accionista en la antigua Daedalus.

A lo largo de los últimos años, además de para Pfizer, hemos trabajado para otros grandes clientes en detección de efectos adversos de medicamentos o para plataformas de gestión de pacientes. Llegó un momento en que vimos claramente la necesidad de disociar nuestro negocio de Text Analytics, fuertemente anclado sobre nuestra plataforma de APIs, de los servicios especializados para el sector de salud y farmacéutico, cada vez más amplios e incorporando múltiples tecnologías de Inteligencia Artificial. Y así es como llegamos a constituir Konplik Health el pasado agosto.

¿Cuál es la propuesta de valor que ofrecéis a vuestros clientes?

Nuestra propuesta se articula en torno a cinco ejes:

  • Codificación, anonimización y búsqueda para investigación clínica
  • Real-World Evidence
  • Inteligencia de mercado
  • Analítica predictiva
  • Automatización robótica de procesos (RPA)

En las cinco áreas contamos con experiencia en clientes. Podéis ver un detalle mayor en el post inaugural de Konplik.

¿Puedes contarnos algunos detalles sobre la tecnología en la que se basa Konplik?

Nuestro propósito es siempre alinearnos con las necesidades y objetivos de nuestros clientes. Dentro de nuestros conocimientos y capacidades en torno a las tecnologías relacionadas con la Inteligencia Artificial, tratamos de ser eclécticos y proponer las mejores soluciones en función del escenario de negocio de nuestro cliente. En estos tiempos, parece que todo pasa por Machine Learning o Deep Learning, y a veces se manejan estos dos términos como sinónimos de Inteligencia Artificial. Sin embargo el espectro de las técnicas de IA es mucho mayor. En concreto, hay un área donde disponemos de producto propio: el procesamiento de lenguaje natural, donde combinamos lo mejor de los dos mundos: los sistemas con capacidad de aprendizaje automático (basados en redes neuronales o en otros algoritmos) y los basados en tecnologías semánticas.

¿Tenéis ya algún caso de uso del que podáis hablarnos?

Nuestras soluciones permiten discernir, por ejemplo, dentro de una historia clínica o de un informe médico, dónde se puede estar haciendo referencia a un posible efecto adverso de un medicamento o a un episodio de interacción entre dos medicamentos, o a la adherencia a un tratamiento por parte del paciente.

Otro escenario distinto es el análisis de la Voz del Paciente. Llamamos así al feedback que los pacientes proporcionan con respecto al trato y al tratamiento que reciben por parte de los hospitales o de los profesionales, o a su experiencia sobre el uso de algunos medicamentos. Estas opiniones pueden ser espontáneas, emitidas en foros especializados o en diferentes medios sociales, recogidas a través de encuestas de satisfacción o servicios de atención al paciente, o bien tramitadas como reclamaciones oficiales.

En todos los casos, nuestra tecnología semántica permite la identificación automática de “insights”, información valiosa para un proceso. Para ello, disponemos de analizadores y de un lenguaje de reglas para expresar que queremos localizar en el texto expresiones en las que un “Efecto adverso X” apareció al cabo de un “Tiempo Y” después de comenzar un tratamiento con el “Medicamento Z”. Nuestra búsqueda de patrones semánticos es además robusta frente a errores tipográficos o procedentes de procesos ruidosos de reconocimiento de caracteres (OCR) o de transcripción de voz a texto.

¿En qué consisten vuestros planes de crecimiento?

Konplik es rentable desde el primer día, al haber transferido la tecnología específica de procesamiento de lenguaje en salud, el personal especializado y los clientes de MeaningCloud en el sector salud, farmacéutico y de las ciencias de la vida.

Nuestros planes de crecimiento incluyen:

  • Hacer visible y reconocible la marca Konplik Health como un referente en la utilización de la Inteligencia Artificial en estas industrias.
  • Expandir nuestra actividad comercial, con foco en el mercado americano.
  • Profundizar en la integración de nuestra tecnología con sistemas de gestión de pacientes e historia clínica electrónica.

Como parte del ecosistema de Sngular, nos sentimos orgullosos de colaborar también con el área de Inteligencia Artificial de Sngular en distintas iniciativas. Esperamos que esta nueva marca nos ayude a avanzar en esta colaboración.

Artículo realizado en colaboración con Eduardo Valencia Data Analytics Manager en Konplik Health.

Etiquetas: , ,

Mujeres con ciencia

Publicado el 04 junio, 2020

Concienciar a las mujeres para que se dedican a la ciencia es tan importante para la ciencia como para las mujeres. Por suerte cada vez son más las iniciativas y los ejemplos que fomentan que cada vez haya más mujeres en el ámbito de la ciencia en general, no solo en el ámbito de la salud, que es donde sí que hay una gran representación de científicas.

La clave en estos momentos es que la ciencia requiere de la tecnología para lograr su máximo desarrollo, de forma que no puede concebirse que un científico no aproveche al máximo las posibilidades que le ofrecen las tecnologías digitales como el Big Data, la Inteligencia Artificial, el Cloud Computing y la Robótica entre otras muchas.

Entonces es donde surge el problema de la falta de vocaciones de las mujeres por estudiar y trabajar en el ámbito de la tecnología, para lo cual resulta tremendamente valioso que haya otras mujeres, que a través de su ejemplo, demuestren que trabajar en ciencia y tener conocimientos de tecnología es una gran oportunidad.

Mujeres de referencia en el ámbito de la tecnología, la ciencia y la salud

Azahara Fernández es una de esas mujeres que no se queda esperando a que ocurran las cosas, sino que pasa a la acción y más allá de estar constantemente aprendiendo para mejorar en su trabajo, se dedica en su tiempo libre a divulgar todo lo bueno que tiene trabajar en el ámbito de la ciencia y la tecnología. Su caso es especialmente interesante porque gracias a su formación científica, con una licenciatura en Biología, un máster en Neurociencia y un doctorado en Inmunología, puede tener una visión muy amplia sobre el potencial y necesidades de la ciencia, que además complementa con sus conocimientos tecnológicos como desarrolladora de software. A todo esto hay que sumar su labor como divulgadora, tanto en lo que a tecnología se refiere, participando en multitud de eventos sobre desarrollo de software y también en el ámbito científico, donde publica una newsletter semanal muy recomendable llamada AziNews.

En esa labor divulgadora Azahara también ha compartido recientemente su visión al respecto de los últimos avances tecnológicos aplicados al ámbito de la salud, en una charla online que podéis ver aquí y donde desgranó los que para ella son algunas de las novedades más interesantes en este sector y además hizo una recomendación de mujeres que están siendo protagonistas por su actividad en esos ámbitos.

Lo que vamos a compartir con vosotros a continuación son los perfiles de estas mujeres que sirven como inspiración por la pasión que ponen en su trabajo y el impacto de la actividad que realizan.

  1. En robótica destaca el trabajo que realiza Verónica Pascual desde la empresa ASTI Technologies Group, lo cual la ha convertido en referente en este ámbito y un ejemplo a seguir para todas aquellas mujeres que quieren combinar su faceta tecnológica con la de gestión empresarial.
  2. Cristina Santamarina es una de las mayores referentes en España en lo que se refiere a interfaces conversacionales o chatbots, una actividad que ha estado desarrollando en varias empresas y que ahora realiza como consultora, además de dedicarse a la divulgación sobre el tema.
  3. En impresión 3D podemos destacar la labor de Irene Presti, que entre otras cosas ha sido una de las fundadoras y presidente de la Cámara Argentina de Impresión 3D y través de 3du.digital, ha creado la primera diplomatura en Impresión 3D en Argentina
  4. Los exoesqueletos son otro de los grandes inventos que la tecnología ha aportado al ámbito de la salud en los últimos años y aquí vale la pena conocer la labor que realiza Elena García como co-fundadora de la empresa Marsi Robotics e investigadora del centro de automatización y robótica del CSIC-UPM.
  5. En inteligencia artificial destacamos a Nerea Luis por su incansable labor divulgativa y formativa, enfocada en demostrar que las mujeres también pueden jugar un papel protagonista en el ámbito de la tecnología, como es su caso trabajando como AI Engineer en Sngular.
  6. El big data aplicado en el ámbito de la salud es probablemente una de las mayores demostraciones sobre cómo la tecnología puede ayudar a mejorar la actividad que se realiza en la ciencia, por eso vale la pena conocer el trabajo que realiza Beatriz Hernández como Head of Advanced Data Analytics en Mediktiv.
  7. Alicia Asín con su empresa Libelium se ha posicionado como referente mundial en tecnologías de Internet of Things, lo cual demuestra que con esfuerzo y tesón se pueden lograr grandes éxitos por parte de una mujer que decida dedicar todo su talento al desarrollo tecnológico.
  8. Haydée Barroso es una de las emprendedoras que ha decidido apostar por la tecnología Blockchain como una de las que más recorrido puede tener en el futuro, además de haber trabajado en el ámbito de la estrategia digital en importantes entidades financieras
  9. La realidad aumentada, junto con la realidad virtual y la realidad mixta, son otras tecnologías con importantes aplicaciones en el ámbito de la ciencia y de la salud especialmente. Y trabajando con estas tecnologías ha desarrollado su carrera Cynthia Gálvez.
  10. El buen diseño y la usabilidad han confluido en los últimos años en el concepto UX o experiencia de usuario, que es a lo que se dedica María Fernandez que según se define a si misma es especialista en: User Interfaces, User Centered Design, UX, Interaction Design y Usability.

10 grandes profesionales y ejemplo a seguir para todas aquellas mujeres, especialmente las más jóvenes, que tengan dudas al respecto de si podrían triunfar en la ciencia y la tecnología. 10 mujeres que no se han conformado con ser buenas profesionales y dedicarse a su vocación científica o tecnológica, sino que además han decidido que también tenían que dedicar una parte de su tiempo a la divulgación, para que cada vez más mujeres, decidan realizar carreras STEAM y de esta forma lograr que la ciencia y la tecnología resulten más valiosas para la sociedad.

Etiquetas: , , , ,

¿Qué sabemos del cerebro?

Publicado el 12 marzo, 2020

En 2020 se cumplen 100 años desde la fundación del Instituto Cajal y si de algo podemos estar orgullosos los españoles en el ámbito científico es de ser pioneros es en la neurociencia, gracias al trabajo realizado por Santiago Ramón y Cajal, Premio Nobel de Medicina en 1906, en reconocimiento de su trabajo sobre la estructura del sistema nervioso, además de todo el trabajo posterior que han realizado muchísimos científicos que han seguido su estela.

Para celebrar este acontecimiento, en Futurizable vamos a dedicar este artículo a conocer un poco mejor el cerebro, así que a continuación compartimos 20 cosas que sabemos del cerebro:

  1. El cerebro sigue siendo un gran desconocido. Aunque se lleve estudiando más de 100 años el funcionamiento de las neuronas y el cerebro en general, aún sabemos muy poco sobre su funcionamiento, en relación con lo que sabemos de otros órganos vitales de los animales y humanos. Miles de millones se están invirtiendo para conocer mejor las claves de su funcionamiento a través del Human Brain Project y de la Brain Initiative, pero aún así nos falta muchísimo por saber, por ejemplo en aspectos como en qué consiste realmente el proceso de la memoria y el olvido.
  2. Usamos el 100% del cerebro, no el 10%, como se ha dicho durante mucho tiempo. Una leyendo urbana, como otras muchas relacionadas con el funcionamiento del cerebro, que se ha intentado aprovechar para explicar determinados «superpoderes» de algunas personas o incluso una evolución futura hacia una nueva especie de superhumanos con una mayor capacidad cerebral. La realidad es que sí que usamos todo el cerebro, entre otras cosas porque de no hacerlo, esto supondría una ineficiencia enorme en relación con el gran consumo energético que supone mantenerlo en funcionamiento.
  3. La estructura del cerebro es muy importante de cara a su funcionamiento, pero no tanto por la popular idea de que está dividido en dos hemisferios, sino porque cada vez está más claro que las diferentes estructuras que lo componen determinan su funcionamiento. Así nos encontramos con el córtex y sus cuatro lóbulos, la ínsula, la amígdala, los ganglios basales, el sistema límbico, el hipocampo, el tálamo, el hipotálamo, el mesencéfalo, la protuberancia, el bulbo raquídeo y el cerebelo. Conociendo entonces que cada una de estas partes realiza funciones específicas, pero muy relacionadas con las demás, se entiende perfectamente por qué resulta tan difícil entender y replicar el funcionamiento del cerebro de manera artificial.
  4. Tenemos «otros cerebros» más allá del que ocupa nuestro cráneo, porque poco a poco se va descubriendo que existen neuronas en otros órganos como el corazón y el intestino, lo cual ha llevado a establecer este concepto de los otros cerebros. Aunque también podemos pensar que el cerebro se extiende más allá del cráneo y de alguna forma hay partes de su funcionamiento que se realizan en asociación como otros órganos, de ahí que poco a poco se vayan conociendo más a qué se debe la sabiduría popular que dice que tomamos las decisiones con el corazón o con el estómago, y lo de que cuando estamos enamorados nos sube el pulso y tenemos mariposas en el estómago.
  5. Existen dos modos de funcionamiento del cerebro, denominados Sistema 1 y Sistema 2, un concepto que se ha hecho bastante popular gracias al libro Pensar rápido, Pensar despacio. El sistema 1 es rápido, intuitivo y empírico, realizando procesos automáticos que tienen lugar en segundo plano de forma inconsciente y que implican menos esfuerzo o no requieren mucha actividad mental. Para ello se basa en experiencias pasadas y en las relaciones que se han creado a partir de las mismas, además de las emociones. El sistema 2 es lento y reflexivo, comporta procesos de control de forma consciente que requieren un mayor razonamiento normativo, lógico y analítico.
  6. La neuroplasticidad es un de las características más importantes a tener en cuenta cuando queremos conocer el funcionamiento del cerebro y sacar provecho de ello. Gracias a la neuroplasticidad el cerebro tiene la capacidad de reorganizar sus rutas neuronales, crear nuevas conexiones e incluso crear nuevas neuronas. De esta forma, a medida que ganamos en experiencias y nuevas conductas, las conexiones sinápticas se fortalecen, mientras que las que no se usan son eliminadas y así las neuronas que utilizamos con mayor frecuencia desarrollan conexiones más fuertes y las que nunca o rara vez se utilizan mueren.
  7. Las neuronas y la conexión entre ellas resultan fundamentales para entender muchas de las funciones cerebrales, por ejemplo las relacionadas con los sentidos, las percepciones, la capacidad para movernos e interactuar con nuestro entorno, nuestra capacidad para manejar objetos y comunicarnos. Además hay otras características de nuestra «humanidad» que también pueden ser explicadas a través del funcionamiento de las neuronas, aunque aún estamos en proceso de entender en qué consiste su funcionamiento, como puede ser el caso de las neuronas espejo y el de las neuronas de concepto que podrían ser fundamentales para explicar algunas características de la inteligencia humana.
  8. La química del cerebro a través de los los neurotransmisores es otro de los grandes aspectos a tener en cuenta a la hora de entender cómo funciona el cerebro humano y lo que podría considerarse como inteligencia, de forma que si lo asemejamos a la inteligencia artificial en la que se basan los ordenadores, las comunicaciones que se producen entre las neuronas a través de la sinapsis son mucho más ricas que las que se producen entre los transistores que conforman los ordenadores, lo cual puede ser una explicación muy básica sobre por qué la inteligencia humana sigue superando en muchos aspectos a la de los ordenadores.
  9. En todo caso cuanto más avanzamos en el conocimiento sobre el funcionamiento de la biología y la química del cerebro, más extraño resulta que sepamos aún tan poco al respecto de cómo nuestro cerebro genera los pensamientos, que podamos desarrollar habilidades como la creatividad y que todo esto permita desarrollar algo que llamamos consciencia. Aquí es donde algunos científicos piensan que para explicar la inteligencia humana es necesario ir más allá de las neuronas y las conexiones sinápticas entre ellas. Y ese más allá podríamos encontrarlo si seguimos profundizando en el interior de la neurona hasta el nivel de las partículas elementales y la interacción entre ellas. Es por esto por lo que quizás en el futuro podríamos hablar de la física del cerebro o cómo las interacciones cuánticas que se producen en las neuronas pueden estar relacionadas con la inteligencia humana.
  10. Entender bien cómo recordamos y por qué olvidamos podría ser otra de las grandes claves para explicar la inteligencia humana. Pensemos en el cerebro como una máquina que va siendo construida y programada a través de la memoria, especialmente a través  lo que recordamos de determinadas experiencias y los conocimientos que vamos adquiriendo de ellas, de todo lo cual una parte importante la vamos a olvidar, pero donde el resultado final de ese proceso conforma una estructura y unas dinámicas de funcionamiento que generan la inteligencia.
  11. Y en este proceso toma una vital importancia el sueño, que actúa como una especie de proceso de limpieza y compilado del código que hace funcionar nuestro cerebro. De esta forma entender cómo funciona el proceso de olvido que se produce en el cerebro cuando dormimos está resultando muy importante de cara a entender cómo funciona el cerebro en general, de esta forma se está haciendo una especie de ingeniería inversa que nos permite aprender cómo funciona la memoria gracias a la forma en la que la perdemos.
  12. Pero llegados a este punto quizás valga la pena pararse a pensar un poco en qué es la inteligencia de cara a que esto nos ayude a entender mejor por qué nuestro cerebro es lo que nos hace inteligentes. Y aquí por ejemplo, si nos basamos en la teoría de las inteligencias múltiples, podemos entender mejor por qué determinadas partes del cerebro y las actividades que se producen en ellas, nos permiten realizar acciones como comunicarnos o resolver problemas lógicos y matemáticos. También podríamos preguntarnos aquí qué es la conciencia, cómo esta está relacionada con la inteligencia y cómo esta nos asemeja o diferencia de los animales.

Y ahora que ya sabemos mejor cómo funciona el cerebro humano vale la pena pensar en cómo sacarle mejor provecho a este gran regalo que nos ha hecho la naturaleza, para lo cual podemos plantearnos llevar a cabo las siguientes tres iniciativas:

  1. Conscientes de lo valioso que es nuestro cerebro aprendamos a cuidarlo y de esta forma poder llegar a mejorar nuestra función cerebral, lo cual nos ayudará a ser mejores personas y mejores profesionales. Para ello tenemos que ser conscientes de la importancia que tiene desarrollar una serie de hábitos que nos permitirán mejorar nuestra salud cerebral, como son el ejercicio físico, el sueño, la alimentación saludable (y comer nueces), la meditación, los ejercicios mentales, las relaciones sociales y el contacto con la naturaleza.
  2. Sigamos investigando el funcionamiento del cerebro, porque cuánto más sepamos sobre él, más sabremos sobre nosotros mismos y mejor podremos actuar frente a los problemas que van surgiendo en nuestro camino, o formarnos para avanzar en nuestro proceso de mejora personal. De esta forma resulta muy positivo que se esté desarrollando cada vez más una rama de la psicología llamada cognitivo conductual, que trabaja para entender en qué se basan nuestros comportamientos, pensamientos y sentimientos, de cara a ayudarnos a enfrentar las dificultades de la vida y en general a vivir mejor.
  3. Aprovechemos lo que sabemos del cerebro para mejorar la tecnología, del mismo modo que se ha inspirado en el cerebro la rama de la inteligencia artificial denominada aprendizaje profundo, a través del uso de las redes neuronales, otras tecnologías pueden utilizarse de manera combinada con la neurociencia para encontrar soluciones a nuestros problemas actuales y seguir ampliando las capacidades actuales de la tecnología.

Veamos a continuación algunas de las innovaciones en el ámbito de la neurotecnología que podrían ser realidad en el futuro cercano gracias a los avances en el conocimiento del funcionamiento del cerebro.

Reparar el cerebro con tecnología. Cuando Elon Musk dio a conocer su proyecto Neuralink no quedó claro cuál podría se la primera aplicación directa de la tecnología de interfaces cerebro-ordenador que pretendía desarrollar. Ahora sabemos que su primer objetivo es fabricar un dispositivo capaz de tratar mediante estimulación cerebral directa a pacientes que sufran de discapacidades causadas por desórdenes neurológicos. Dichas interfaces tienen el potencial de ayudar a personas con una amplitud de desórdenes clínicos y, a través de los experimentos realizados, se ha comprobado que los pacientes han sido capaces de controlar cursores de computadoras​, prótesis robóticas​ y sintetizadores del habla, lo que demuestra su potencial uso en el área médica para tratar con pacientes que presenten discapacidades relacionadas con el funcionamiento del cerebro. Considerando que los experimentos realizados hasta el momento han utilizando sistemas que no cuentan con más de 256 electrodos, esto supone una limitación a la hora de recopilar la información procedente de las neuronas, para lo cual el equipo de Neuralink busca desarrollar un dispositivo capaz de aumentar el orden de magnitud de neuronas de las que se pueda extraer información y estimularlas de forma segura y duradera mediante un procedimiento simple y automatizado.

La internet del pensamiento. En el año 2014 el científico Ray Kurzweil pronosticaba un futuro en el habrá nanobots que conectarán nuestro neocórtex a un neocórtex sintético en la nube, y que convertirán nuestro pensamiento en un híbrido biológico y no biológico. Para el desarrollo de esta interfaz cerebro/nube será necesario desarrollar una nueva generación de nanobots que se adentrarán en el campo de las neurociencias y navegarán por el sistema vascular humano, cruzarán la barrera hematoencefálica y se posicionarán entre las neuronas e incluso dentro de ellas. A continuación podrán transmitir de forma inalámbrica información codificada hacia una red de superordenadores situados en la nube, con la finalidad de permitir un seguimiento en tiempo real del estado del cerebro y de la extracción de datos que realiza en cada momento. Este sistema B/CI mediado por neuralnanorobts podría permitir a las personas tener acceso instantáneo a todo el conocimiento humano acumulativo disponible en la nube, al tiempo que mejoraría significativamente la capacidad de aprendizaje y la inteligencia humana. También podría permitirnos crear en un futuro el sistema central global que conectaría redes de cerebros humanos individuales y la inteligencia artificial para permitir el pensamiento colectivo.

La simbiosis entre el hombre y la máquina. Conectar el cerebro con los ordenadores no solo nos ayudaría a mejorar la situación de las personas con enfermedades neurológicas o conectarnos mentalmente a internet para poder acceder a todo el conocimiento generado por la humanidad. Porque una vez que hemos superado la problemática de establecer la interfaz digital que conecte nuestras neuronas con los ordenadores, podremos hacer cualquier cosa que ahora hacen las máquinas tan solo con pensarlo. Por ejemplo, podremos pilotar vehículos con la mente, podremos ampliar nuestras capacidades a través de todo tipo de sensores, incluso podremos conectar otros tipos de dispositivos a nuestro cuerpo, para manejarlos directamente con el cerebro. Así que básicamente de lo que se trata es de discernir de qué forma esa unión entre lo humano y lo digital tiene sentido para nosotros, cuándo nos aporta valor más allá de ayudarnos a resolver los problemas que conlleva una enfermedad o discapacidad y del sacrificio que supondrá para nosotros dejar de ser humanos para convertirnos en cíborgs.

Terminamos aquí con este artículo dedicado a «pensar» en el cerebro, pero al igual que hemos comenzado rindiendo homenaje a un gran científico, nos gustaría terminar con otro homenaje, en esta ocasión a otro gran científico que acaba de perder la humanidad, como es Freeman Dyson de quien compartimos a continuación algunas de sus ideas al respecto de lo poco que sabemos aún sobre el funcionamiento del cerebro:

Sobre la evolución y el libre albedrío, de Orígenes de la vida, 1999. Freeman Dyson.

«Como abuelo de dos gemelos idénticos de cinco años, todos los días veo el poder de los genes y los límites de ese poder. George y Donald son físicamente tan parecidos que no soy capaz de distinguirlos en la bañera. No solo tienen los mismos genes, sino que han compartido el mismo entorno desde el día en el que nacieron. Sin embargo, tienen cerebros diferentes y son personas distintas. La vida se ha escapado de la tiranía de los genes al desarrollar cerebros con conexiones neuronales que no están determinadas genéticamente. La estructura detallada del cerebro está formada en parte por los genes y por el entorno y en parte es aleatoria. Cuando los gemelos tenían dos años, pregunté a su hermano mayor cómo los diferenciaba. Él dijo: ‘Oh, eso es fácil. El que muerde es George’. Ahora que tienen cinco años, George es el que corre para darme un abrazo, y Donald es el que mantiene la distancia. La aleatoriedad de las sinapsis en sus cerebros es el principio creativo que hace que George sea George y Donald sea Donald… George y Donald son personas diferentes porque su vida empezó con distintas muestras aleatorias del contenido neurológico en sus cabezas. Nunca se puede eliminar por completo ese contenido. Los adultos son solo un poco más racionales que los niños de cinco años. Si se elimina demasiado ese contenido se destruye el alma«.

Etiquetas: , , ,

Biotecnología, inteligencia artificial, cambio climático: los grandes riesgos de las tecnologías del siglo XXI

Publicado el 27 febrero, 2020

La capacidad tecnológica de la humanidad se incrementa a ritmos cada vez más rápidos ¿Te has planteado alguna vez que hay tecnologías que pueden igualar o superar a la energía nuclear en cuanto a su potencial para el desarrollo humano y para su destrucción?

Con esta sugerente introducción se presenta el evento Biotecnología, inteligencia artificial, cambio climático: los grandes riesgos de las tecnologías del siglo XXI que tendrá lugar el 3 de marzo de 18 a 20h en el sHub Madrid y donde Jaime Sevilla, científico especializado en AI, compartirá su visión sobre el tema.

El evento estará dividido en dos partes; en primera parte parte se presentará un modelo de evaluación de riesgos tecnológicos que, a continuación, se aplicará al riesgo nuclear, cambio climático, biotecnología e inteligencia artificial. En la segunda parte se presentará la labor del Centro para el Estudio de los Riesgos Existenciales y otras organizaciones que trabajan en este ámbito, que es donde se enmarca el trabajo investigación que Jaime Sevilla realiza en la Universidad de Cambridge.

Jaime Sevilla es investigador generalista, con un profundo conocimiento de las matemáticas y la inteligencia artificial. Está interesado en temas relacionados con la alineación de sistemas avanzados de IA, la acción filantrópica efectiva y la investigación, la política de tecnologías emergentes, la predicción y la modelización matemática.

A continuación puedes conocer un poco mejor la visión de Jaime Sevilla al respecto de los riesgos que pueden suponer para la humanidad el desarrollo incontrolado de la inteligencia artificial:

La promesa de la inteligencia artificial es automatizar la resolución de problemas, incluyendo problemas cotidianos como la conducción y problemas más esotéricos como el diseño de software.

Las posibilidades que habilita esta tecnología son abundantes, y pueden tener un impacto positivo dramático en la sociedad. La posibilidad de automatizar gran parte de la labor es un indicio de la posibilidad de que la inteligencia artificial suponga un adelanto económico comparable a las revoluciones agrícola e industrial.

Sin embargo, desarrollos recientes en el campo apuntan en una dirección inequívoca: desde el predictor de texto GPT-2 hasta el bot de Starcraft AlphaStar, la delantera la llevan algoritmos con un grado elevado de opacidad. Con ello quiero decir que es difícil interpretar las razones por las que estos sistemas toman unas u otras decisiones.

Esto es síntoma de un problema mayor. El entendimiento teórico de los problemas técnicos asociados al desarrollo de sistemas avanzados de inteligencia artificial no va a la par que el desarrollo de nuevas capacidades.

Para saber más al respecto recomendamos leer el artículo completo Atravesando la frontera. Riesgo nuclear e inteligencia artificial.

Etiquetas: , ,

Hasta que llegue la Internet Cuántica

Publicado el 06 febrero, 2020

Introducción

“Pienso que se puede afirmar tranquilamente que nadie entiende la mecánica cuántica… No te pongas a repetir, si puedes evitarlo ¿pero cómo puede ser así? porque irás hacia un callejón sin salida del que nadie ha escapado. Nadie sabe cómo puede ser así. Si usted piensa que entiende la mecánica cuántica… entonces usted no entiende la mecánica cuántica» Richard Feynman

Tras leer estas palabras y reflexionar sobre ellas, teniendo en cuenta que Richard Feynman, además de haber recibido el premio Nobel de física, está considerado como el padre de la computación cuántica, y ha sido de uno de los científicos que más ha aportado al desarrollo actual de la mecánica cuántica, sería una osadía intentar explicar en detaller en qué consiste la computación cuántica. Pero lo que sí que podemos hacer es recomendar una serie de recursos que pueden ayudar a aquellos que estén interesados en profundizar en ello o incluso aprovechar la oportunidad que supone por lo incipiente que es esta nueva disciplina tecnológica.

Recursos sobre computación cuántica

No es la primera vez que hablamos de computación cuántica en Futurizable, ya que en 2016 hicimos un artículo donde lo mencionábamos junto a otras tecnologías incipientes en el ámbito de la informática, de las cuales, claramente, la que más protagonismo ha tomado en este tiempo es la cuántica. Del artículo anterior vale la pena recordar como apenas había un puñado de empresas dedicadas a trabajar en este ámbito, frente a las más de 100 startups que han surgido en estos años, enfocadas en realizar distintos tipos de desarrollos en el marco del quantum computing. Podemos destacar D-Wave, con su plataforma Leap; Riggeti, que ofrece su plataforma de computación cuántica a través de Amazon Web Services; IonQ, que ha apostado por el modelo de computación cuántica basado en trampa de iones propuesto por el físico español Ignacio Cirac; y Zapata Computing, que trabaja en el desarrollo de los algoritmos cuánticos necesarios para que comiencen a aparecer los primeros casos de uso reales de la tecnología.

En lo que a startups españolas se refiere, nos encontramos por ejemplo con Quside que se dedica al diseño y fabricación de componentes cuánticos innovadores para cualquier dispositivo conectado. Para ello han desarrollado una tecnología de generación de números aleatorios cuánticos, con el objetivo de habilitar la próxima generación de soluciones de cifrado. Quside nació como una spin-off del ICFO-The Institute of Photonic Sciences en Barcelona. Después de más de 6 años de intenso esfuerzo de I + D en el desarrollo de dispositivos cuánticos para comunicaciones seguras, el equipo tomó el camino de la industrialización y constituyó la empresa en 2017. A partir de ese momento la compañía se dedica al desarrollo de su innovadora tecnología cuántica y fotónica.

Otras startups españolas que trabajan en el ámbito de la computación cuántica a las que habrá que seguir la pista son Q-LION, Metempsy, Multiverse y VLC Photonics.

Además hay que destacar que las grandes empresas tecnológicas cuentan ya con programas específicos para el desarrollo de esta tecnología, de manera que, al igual que ha ocurrido con la Inteligencia Artificial (al menos de momento) la idea es compartir y colaborar, de forma que, uniendo fuerzas en todas estas empresas, se puedan afrontar los grandes retos que presenta esta tecnología, tanto desde el punto de vista científico como a la hora de aplicarlo en casos reales.

En este sentido sabemos desde hace tiempo que la apuesta por la computación cuántica de IBM se realiza a través del proyecto Quiskit, donde están haciendo una importante labor de divulgación, gracias a al trabajo en la materia que realizan profesionales como Asier Arranz. Por otro lado sabemos que la iniciativa de Google con su proyecto Cirq, está muy ligada a su estrategia de Inteligencia Artificial, que Microsoft desarrolla también sus propias iniciativas en el marco de Azure y que Amazon ha llamado Braket a su iniciativa de informática cuántica.

También otras muchas empresas tecnológicas como Intel, Baidu, Mitsubishi, Nokia, Alibaba, … tienen sus propios programas para el desarrollo de la computación cuántica, por lo que vemos que estamos en un momento importante en cuanto al interés por la tecnología se refiere y lo que tendremos que ver en los próximos años es el nivel de madurez que se puede llegar a lograr, a través de los casos de uso en diferentes industrias, igual que ha sucedido recientemente con otras tecnologías como blockchain.

Las diferentes aplicaciones cuánticas

Antes de entrar en detalle sobre el funcionamiento de la computación cuántica conviene saber que existen diferentes aplicaciones cuánticas más allá de la propia computación, de forma que, actualmente, se trabaja en paralelo en el desarrollo de estas tecnologías basadas en la teoría de la información cuántica, de las cuales algunas están claramente más avanzadas que otras.

  1. Las comunicaciones cuánticas consisten en la transmisión de información valiéndose de los principios de la mecánica cuántica y propiedades como el entrelazamiento cuántico y la teleportación cuántica. Su desarrollo se basa principalmente en la criptografía cuántica y la computación cuántica, se proyecta como el futuro medio de comunicación ideal debido al gran aporte en el área de la seguridad informática. Se considera que en un futuro próximo se podrán implementar redes cuánticas que reemplacen a los actuales sistemas de telecomunicación especialmente para ofrecer utilidad en comunicaciones que trabajan con información crítica como puede ser la financiera, legal o de seguridad nacional.
  2. La criptografía cuántica es la criptografía que se basa en los principios de la mecánica cuántica para garantizar la absoluta confidencialidad de la información transmitida. Una de sus propiedades más importantes consiste en que si un tercero intenta espiar durante la creación de la clave secreta, el proceso se altera descubriendo al intruso antes de que se transmita la información privada, lo cual es consecuencia del teorema de no clonado.
  3. La computación cuántica es a lo que vamos a dedicar este artículo y consiste en el uso de qubits en lugar de bits, dando lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos.
    La programación cuántica está surgiendo a la par que se van desarrollando los ordenadores cuánticos, por lo que las principales empresas que trabajan en ello han creado sus propios lenguajes de programación como puede ser Q sharp de Microsoft, QASM desarrollado por IBM para ser usado en el marco de su framework Qiskit. Y sobre todo tenemos que considerar la gran relevancia que está tomando Python en este sector, al igual que ha ocurrido antes en el ámbito de la Inteligencia Artificial.
  4. Todos estos desarrollos nos llevarían en un futuro a disponer del llamado Internet Cuántico que funcionaría a través de satélites y nos colocaría a un nuevo nivel en cuanto al uso que podemos hacer de las tecnologías de comunicaciones e informáticas.
  5. Finalmente tenemos que pensar en otros tipos de aplicaciones por ejemplo en temas como la metrología y sensores, donde ya se trabaja por ejemplo en el diseño de alternativas a los relojes atómicos, en sistemas de navegación basados en acelerómetros como alternativa al sistema GPS y en el desarrollo de gravitrómetros cuánticos, entre otras muchas aplicaciones.

Cuatro formas en las que se pueden crear los qubits

De cara a poder desarrollar ordenadores cuánticos resulta imprescindible poder disponer de un hardware que sea capaz de trabajar con qubits, para lo cual se han propuesto diferentes soluciones, tanto de manera teórica o experimental, como desarrolladas de forma práctica, lo que ocurre es que la mayoría de ellas aún no están disponibles de manera comercial y sobre todo que aún no podemos saber si una de ellas se impondrá frente a las demás o si se mantendrán varias opciones en función de la utilidad que se quiera obtener. En todo caso lo que vamos a ver a continuación son 4 de las formas que están más desarrolladas hasta el momento.

  1. Utilizar el spin de partículas como el electrón para crear qubits, sabiendo que las partículas como los electrones, o los propios átomos, tienen una propiedad de tipo magnético denominada spin. Podemos imaginarnos el electrón como un pequeño imán, con su polo Norte y su polo Sur. En estado de superposición, la dirección Sur-Norte de éste queda indefinida. Para tratar de conocerla, utilizamos un aparato de medida que hace pasar el electrón entre dos imanes, uno mostrando su polo S y otro mostrando su polo N. Uno de los imanes (S) es más potente que el otro, de forma que si el electrón tiene su polo N hacia el S del aparato de medida y viceversa, saldrá del aparato con una trayectoria ligeramente desviada hacia donde estaba el polo S del aparato. Si, por el contrario, el electrón tiene sus polos iguales respecto a los del aparato, el que es más potente, el S, repele el polo S del electrón y la trayectoria de éste al salir, estará ligeramente desviada en la dirección N del aparato. Bien, si el electrón tiene su spin o dirección S-N en una dirección cualquiera, deberíamos ver trayectorias en diferentes ángulos y desviaciones, pero los experimentos nos dan dos trayectorias al 50%, como si el spin siempre estuviese perfectamente alineado con la dirección de los imanes del aparato, ya sea hacia el N o hacia el S. Al observar la distribución de los impactos de los electrones en la lámina final, no hay impactos en la zona donde llegarían los electrones cuyo spin tiene una dirección S-N inclinada u horizontal y su desviación hacia el N o el S no fuese tan marcada.
  2. Utilizar la dirección de polarización del fotón para crear el qubit, de forma muy semejante a lo que ocurre con el spin del electrón. El plano de vibración asociado al fotón, puede tener distintas inclinaciones, y existen filtros que solo dejan pasar los fotones cuyo plano de polarización está en un ángulo concreto. En estado de superposición, dicho plano está indeterminado, y al aplicarle el filtro vertical, se deshace la superposición y dejará pasar fotones al 50% con polarización vertical, mientras que otro 50% de fotones se habían manifestado con polarización horizontal y no pasan el filtro. En el experimento de los tres filtros, por ejemplo, se ve que si aplicamos un filtro que solo deja pasar la polarización horizontal, al aplicar un filtro vertical, no pasan fotones. Pero si, tras un filtro horizontal, colocamos otro inclinado un ángulo de 45º, el estado de superposición que provoca éste, hace que un filtro vertical posterior deje pasar el 50% del haz de fotones.
  3. Usar una trampa de iones para crear los qubits, mediante campos eléctricos y electromagnéticos.Al disponer iones (suelen ser de Calcio) capturados de forma que solo puedan vibrar en una de las tres dimensiones (Z), este único movimiento solo se manifiesta según cantidades concretas de energía (cuantos). En estado de superposición, podemos tener un ión en un estado indeterminado entre movimiento cero y vibración asociado a un estado energético concreto. Al incidir con un láser sobre el ión, según el estado energético que adopta al romperse la superposición, sale un fotón o no.
  4. Usar el efecto túnel entre dos superconductores (Unión Josephson, Temple Cuántico) es otra forma de crear qubits que cumplan con las características definidas por la lista de criterios propuesta por Di Vincenzo. Para ello se utiliza un circuito de superconductores (suele ser aluminio) a temperaturas muy cercanas al cero absoluto, en los que hay un sistema resonante (su estado se manifiesta a través de frecuencias) que puede estar en lo que se llama el estado “Ground” o básico que representará el 0, y puede estar en un estado “excitado”, al aplicar micro-ondas con una energía muy concreta, que representará al 1. Si la frecuencia aplicada con las microondas no llega a ser la exacta que pone al sistema en el estado excitado, el sistema se queda en un estado de superposición. En estos circuitos, la parte clave son las Uniones de Josephson en las que se produce el conocido efecto túnel, que es el que permite pasar electrones (los pares de Cooper) a través del aislante entre los dos superconductores. Es curioso que, precisamente, el efecto túnel sea el inconveniente que se encuentran los transistores de los chips clásicos para funcionar bien, siendo justo el efecto clave para que los chips cuánticos funcionen en el nuevo paradigma de la computación cuántica. Éste es el sistema utilizado por IBM en su ordenador cuántico Q, en el que un circuito tipo “trasmon” se comporta de forma cuántica en arquitecturas de diferentes formas y diferente número de qubits En la técnica del Temple Cuántico, que es la que usa D-Wave, el sistema es de un número mucho mayor de qubits y se analiza la distribución de valores del hamiltoniano (una función que mide la energía del sistema) obteniendo un “landscape” o paisaje en el que el valor mínimo representa la solución óptima al problema computacional.

Cómo empezar a aprender sobre computación cuántica

De las primeras cosas que podemos hacer cuando nos planteamos aprender sobre una nueva tecnología, es empezar a ir a eventos para conocer el estado de desarrollo de la materia y conocer a otras personas que se encuentran en una situación parecida a la nuestra, de forma que ésto nos podrá ayudar a tomar una decisión al respecto de cómo adentrarnos en esta materia y sobre todo hacerlo de la mano de otros que ya llevan parte del camino recorrido. A este respecto de los eventos ya se han empezado a poner en marcha algunos, como por ejemplo en Madrid están el Meetup Computación Cuántica en Madrid promovido por IBM y el Meetup Quantum and Beers Madrid promovido por Sngular, aunque en Meetup podremos encontrar otros que se realizan en otras ciudades.

Antes de lanzarnos a participar en eventos sería bueno llegar allí con cierta base en cuanto a los principales aspectos a conocer de esta disciplina y conocer conceptos como el qubit, la superposición, el entrelazamiento, las puertas cuánticas, como la de Hadamard y CNOT, o la esfera de Bloch. A este respecto recomendamos por aquí unos vídeos de Derivando, Date un Voltio y Quantum Fracture, que son grandes divulgadores científicos y explican el tema de la forma más didáctica posible. Además si quieres entender las connotaciones que esta tecnología va a tener a nivel de desarrollo informático y de negocio para las startups te recomendamos ver este vídeo de Platzi.

Los Frameworks para programar ordenadores cuánticos

Para trabajar con la computación cuántica, como ocurre con otras tecnologías recientes, lo mejor es subirse a hombros de gigantes, es decir, aprovechar todo el trabajo que ya han hecho las grandes empresas tecnológicas, para construir sobre ello nuevas ideas y aplicaciones. De hecho si estas empresas han decidido apostar por este modelo de funcionamiento es porque saben que es la mejor forma de impulsar un nuevo sector en el que existen tantas incertidumbres y dificultades a superar. Por lo tanto lo que vamos a descubrir a continuación son las plataformas sobre las que podemos trabajar si queremos empezar a hacer pruebas con la computación cuántica.

  1. Qiskit de IBM. IBM ha sabido mover ficha con habilidad y rapidez, creando un entorno bastante amable, con buena documentación, para iniciarse en la programación de circuitos cuánticos. Qiskit es un framework Open Source en Python, con cuatro elementos: Terra, Aer, Aqua e Ignis. A grandes rasgos, Terra provee de las herramientas básicas para programar los circuitos y ejecutarlos en remoto en los backends cuánticos reales; Aer permite simular el funcionamiento de éstos mientras estamos creando los circuitos y probando; Aqua proporciona las librerías para particularizar en el campo de la química, la IA o las finanzas, e Ignis se encarga del ruido, que como veremos más adelante es el gran problema al que se enfrenta en estos momentos la computación cuántica. A través de la IBM Q Experience y una serie de tutoriales, es relativamente sencillo introducirse y familiarizarse con el entorno de Qiskit, trabajando sobre Jupyter notebooks. También han lanzado un manual que permite ponerse manos a la obra para ir descubriendo más a fondo las posibilidades y herramientas a nuestro alcance.
  2. Forest SDK de Rigetti. El fundador de Rigetti provenía de la división de computación cuántica de IBM, por lo que, a pesar de ser una compañía relativamente reciente, se ha ganado la confianza de inversores y agentes del sector. El sistema de Rigetti, en realidad, es híbrido, complementando computación clásica con un co-procesador cuántico. En 2017 lanzó su propia plataforma de servicio para programar algoritmos cuánticos, llamada Forest, gratuita y libre, cuya SDK se puede descargar desde la web. Cuenta con su propio lenguaje de programación: Quil. Pero proporcionan una librería (PyQuil) para poder crear y ejecutar los programas con Python. Los circuitos programados se pueden ejecutar en una QVM (Quantum Virtual Machine) en modo simulación, o también se puede acceder a un QPU (Quantum Processing Unit) para hacer una ejecución en su ordenador cuántico real. Rigetti ha creado una comunidad de partners que actúan como intermediarios para llegar más lejos y con un portfolio de servicios más completo para empresas como usuario final.
  3. Strawberry Fields de Xanadu. Xanadu cuenta con una plataforma muy limpia para probar la computación cuántica basada en fotones. Strawberry Fields es una librería Python open source, que ellos categorizan como “full stack” para diseñar, simular y optimizar circuitos cuánticos ópticos. En la web ofrecen una interfaz interactiva bastante bonita para construir gráficamente un circuito y probarlo en simulación. La documentación todavía no es muy amplia, pero, al igual que en casi todas las plataformas, es suficiente para iniciarse y probar.
  4. Cirq de Google. Google ya lanzó en 2018 su propio framework open source para Python, denominado Cirq, con el que se pueden crear algoritmos cuánticos y ejecutarlos localmente, en un entorno virtual Python, en modo simulador. La documentación disponible es un poco escasa, pero está bien para iniciarse. La intención es dar acceso remoto a su ordenador cuántico para que cualquiera pueda ejecutar los algoritmos en el pardigma cuántico real, pero aún no han dado ese paso. Han estado bastante concentrados en poner a punto su última versión de chip cuántico, el Sycomore de 54 bits, para su experimento de supremacía cuántica. Sería bueno que continuasen en la línea de lo que hicieron con Tensorflow para el tema de machine learning y vuelvan a cuidar la comunidad. Lo malo de los simuladores cuánticos, es que tarde o temprano ya no sirven, pues, en el fondo, se ejecutan sobre computación clásica.
  5. Leap de D-Wave. D-Wave fue la primera empresa en vender ordenadores cuánticos, entre otros, a la Nasa. Sus ordenadores cuánticos se basan en la técnica del “recocido cuántico” o “temple cuántico”. Esta tecnología se basa en una arquitectura basada en grafos, por la cual cada qubit está acoplado a otros 15 qubits (en su arquitectura actual Pegasus). Su funcionamiento está totalmente enfocado en resolver problemas de optimización. El “Quantum Annealing” o recocido cuántico, es un algoritmo en el que se “cablean” los parámetros del problema en modo grafo y se realiza una gran cantidad de muestreos aleatorios, buscando después el mínimo global de las fluctuaciones cuánticas que se dan por efecto tunel en superconductores. Pero realmente el ordenador de D-Wave no es del todo cuántico, aunque sí muy potente. Ésto le da cierta ventaja sobre otros ordenadores cuánticos que todavía no pueden resolver problemas en el mismo nivel, pero también podría ser una limitación cuando el resto vaya aumentando su capacidad. La cuestión es que no todos los qubits aprovechan el estado de superposición en la misma fase de computación. Además, solo puede usarse para problemas que admitan el mapeado del algoritmo sobre cierto grafo. El entorno para probar de forma gratuita, a través de la nube, el D-Wave 2000 Q System, se llama Leap y se utiliza Ocean SDK, con herramientas y librerías de Python. Como también tiene tutoriales y ejemplos en notebooks de Jupyter, el primer acercamiento es bastante interactivo y asequible.
  6. QDK de Azure Quantum: Microsoft ofrece su propio framework open source llamado QDK (Quantum Development Kit) que permite programar y ejecutar simulaciones de algoritmos cuánticos. Ofrece conectar con Azure y poder utilizar containers de Docker para crear los entornos de simulación, y también ofrece la posibilidad de solicitar acceso anticipado a lo que va a ser su plataforma especializada en computación cuántica Azure Quantum, en la que se podrá utilizar hardware cuántico real en remoto a través de los partners con los que cuenta Microsoft, como IonQ. El lenguaje propio que ha desarrollado Microsoft para este entorno y su QDK es Q# (Q sharp), aunque también ofrece una librería para programar en Python, adaptando el código. La documentación es bastante completa pero poco unificada, y cuesta volver a encontrar algo que habías visto antes. Hay varias opciones de trabajo: Visual Studio, Jupyter notebooks,… Tiene buena pinta, a la espera de que lancen definitivamente Azure Quantum.
  7. Braket de AWS: El último actor conocido que se ha incorporado al escenario de la computación cuántica ha sido AWS. Tras anunciar la creación de la plataforma Bracket, y ofrecer la posibilidad de probarla en fase Beta a través de solicitud, ha ido reclutando los servicios de proveedores de hardware, como D-Wave, IonQ y Rigetti. Aunque aún no hay suficiente información sobre la experiencia que ofrece, parece ser que se programa sobre notebooks de Jupyter, en Python, y se puede elegir si se ejecutan los algoritmos sobre un backend de simulador o un backend de procesador cuántico real de alguno de los proveedores con los que tienen acuerdo.

Descubre los algoritmos cuánticos más importantes hasta el momento

Los algoritmos cuánticos son la base para que puedan empezar a desarrollarse aplicaciones basadas en computación cuántica, así que como os podéis imaginar, en lo que más se está trabajando actualmente es en el diseño de estos algoritmos, lo cual permitirá más adelante desarrollar los programas informáticos que se esperan ofrezcan utilidades en ámbitos como en el diseño de moléculas o la optimización de rutas de transporte.

  1. Algoritmo de Deutsch–Jozsa: fue uno de los primeros algoritmos cuánticos que se desarrollaron. Dada una función desconocida, el algoritmo nos dice si, para un grupo de entradas determinado, el conjunto de salidas o resultados es constante o está balanceado. Es decir, la función será constante si da 0 para todas las entradas o 1 para todas ellas; pero será balanceada si nos da igual número de 0 que de 1. Aunque no parece tener aplicaciones prácticas generalizadas, es importante porque permite testear el funcionamiento del sistema, y últimamente sí se está estudiando su importancia en modelos de tratamiento del lenguaje formal.
  2. Transformada cuántica de Fourier: este algoritmo es la base de otros algoritmos cuánticos más complejos, y se basa en aplicar la transformada clásica de Fourier al vector de amplitudes del estado cuántico. Presenta una ventaja exponencial frente al cómputo clásico, y forma parte del algoritmo de Shor y otros algoritmos de cálculo.
  3. Algoritmo de Shor: es el algoritmo más conocido por sus implicaciones en la posible vulnerabilidad de los sistemas criptográficos actuales. Es un algoritmo que sirve para buscar la posible factorización de un número primo. De momento no es tan amenazante como parece porque el estado del hardware no permite trabajar con números primos muy grandes, y todavía, se prevé que harán falta un buen número de qubits más para que un ordenador cuántico sea capaz de poner en peligro sistemas como el RSA. Pero, por si acaso, ya se está trabajando en lo que se conoce por Criptografía Post – cuántica para encontrar sistemas de cifrado que sean seguros llegado el momento.
  4. Algoritmo de Grover: es un algoritmo enfocado en buscar un elemento en una lista no ordenada, utilizando un orden de magnitud de tiempo mucho menor que el de la computación clásica, aunque no exponencialmente menor. El resultado se obtiene con una cierta probabilidad de acierto, como en otros algoritmos cuánticos. También puede utilizarse para calcular media y mediana de un conjunto de datos

En realidad, el abanico de algoritmos específicamente enfocados en aprovechar los órdenes de magnitud de la computación cuántica va creciendo rápidamente, muchas veces construidos a partir de otros algoritmos más básicos. La gran mayoría sirven para acometer tareas de cálculo dentro de procesos más amplios o para simular ciertos efectos de la naturaleza con carácter cuántico o probabilístico. También está habiendo interesantes adaptaciones, como es el caso del Método de Montecarlo para algoritmos cuánticos de aplicación al sector financiero. Pero será necesario que el hardware evolucione para que la comunidad vaya explorando nuevas posibilidades y los algoritmos vayan siendo más completos y aplicables a tareas o problemas más tangibles.

Los problemas actuales de la computación cuántica

Que la computación cuántica no tenga aún casos de usos reales se debe en una parte muy importante a que existen problemas técnicos que hacen que no se pueda trabajar con ella de una forma suficientemente fiable. Hablamos principalmente del problema del ruido, que provoca errores que no se pueden admitir para usos comerciales donde está en juego la utilidad que se pretende obtener para esta tecnología. Pero además del ruido existen otros problemas para su desarrollo actual que vamos a comentar a continuación.

  1. El ruido es el gran problema técnico actual de la computación cuántica y lo que hace que aún sea pronto para lanzarse a realizar aplicaciones reales, por el riesgo que supone de cara a que se produzcan fallos en producción. Este ruido es ocasionado por las perturbaciones que se producen en el qubit cuando se intenta realizar una medida para determinar su estado o por las interferencias que se producen entre los qubits que conforman el ordenador cuántico, y para evitarlo se trabaja en la mejora del hardware, o se compensa el problema a través de la realización de muchas medidas de las cuales se hace una media estadística.
  2. La falta de algoritmos es un problema porque cuando hablamos de computación cuántica tenemos que pensar que estamos empezando desde cero en la forma en la que se construyen los ordenadores y sobre cómo es su funcionamiento a nivel más básico. Luego, sobre ésto, hay que construir el software y aunque para ello podemos usar lenguajes de programación como Python, sin embargo, en lo que a algoritmos se refiere, sí que tenemos que diseñarlos nuevamente para poder hacer los procesos que ahora nos resultan básicos en la informática, como pueden ser las operaciones matemáticas más básicas, las búsquedas de información, la factorización, la ordenación, el balanceo, …
  3. La escasez de profesionales que trabajen en su desarrollo es otro de los grandes cuellos de botella en este sector. Andrés Torrubia en su podcast Software 2.0 explica cómo la Inteligencia Artificial se podría asemejar a la disciplina deportiva del triatlón, en la que, en lugar que los tres deportes (natación, ciclismo y carrera), tendrían su equivalente en las matemáticas, la programación y los sistemas informáticos (principalmente que sepan trabajar con el cloud). Ahora, cuando hablamos de computación cuántica tenemos que añadir un factor más a la ecuación, que es la física, por eso se va a complicar aún más el acceso a profesionales en este ámbito. Ya sean informáticos con un gran conocimiento de matemáticas y física, cuántica en este caso, o físicos y matemáticos que sepan programar, pero además que tengan suficientes conocimientos a nivel de cómo funcionan los ordenadores en sus fundamentos más básicos y cómo ahora además se gestionan las plataformas de computación en la nube, que en cierta medida buscan hacer accesibles todos estos sistemas, pero que no están exentas de su correspondiente complejidad.
  4. La falta de casos de uso reales es un lastre importante para que más empresas y profesionales se lancen a trabajar con esta tecnología. Es el típico caso de la pescadilla que se muerde la cola, algo que no ha sucedido por ejemplo con la tecnología Blockchain que desde sus inicios tenía un gran caso de uso como es Bitcoin, pero en este tema de la computación cuántica es necesario que empiecen a surgir aplicaciones reales que sirvan de inspiración para toda la gente que tiene ganas de trabajar en ello. Por eso es tan importante que se organicen actividades como los hackathons de la comunidad Qiskit de IBM.

Algunos casos de uso futuro para la computación cuántica

Como comentábamos en el punto anterior, el desarrollo de casos de uso resulta fundamental para el avance de la computación cuántica, ya que será lo que atraiga el interés de más empresas y profesionales, con la correspondiente inversión económica que ésto conlleva. De esta forma se dará el salto de la situación actual donde la mayoría del trabajo se está realizando a nivel de investigación, para pasar a una fase precomercial, al menos en el desarrollo de prototipos que puedan servir para determinar la viabilidad en el uso de esta tecnología.

También se ha comenzado a trabajar a nivel práctico en criptografía cuántica por su utilidad para la resolución de problemas de factorización, que se utilizan a nivel de criptografía, para lo cual por ejemplo en España tenemos una iniciativa llamada CiViQ que está financiada por la Unión Europea dentro del programa Quantum Flagship Project, que busca invertir 1.000 millones de euros para el desarrollo de proyectos basados en computación cuántica.

Y en relación con los posibles casos de uso en diferentes sectores de la economía, vemos como un sector en el que está despertando un gran interés es el del diseño de moléculas orgánicas, que pueden ser usadas en las industrias químicas, farmacéuticas y de materiales. Esto es debido, a que sobre todo cuando hablamos del diseño de proteínas, que son uno de los tipos de moléculas con mayor potencial actualmente en este ámbito, la complejidad de su diseño es tan alta que con los recursos informáticos actuales con los que cuentan las empresas, se hace especialmente tedioso y lento su desarrollo. Incluso si recurrimos a los supercomputadores más potentes del mundo, vemos cómo su capacidad de cómputo se sigue mostrando insuficiente para realizar este tipo de trabajos.

Otra actividad en la que sería muy interesante poder utilizar la computación cuántica es de cara a la realización de modelos ambientales en el ámbito de la geoingeniería. Estamos hablando de intervenir artificialmente para modificar el clima del planeta y contrarrestar de esta forma los efectos del calentamiento global, lo cual presenta una complejidad enorme por todas las interacciones a nivel planetario que hay que tener en cuenta, lo cual podría ser abordado en el futuro gracias a la mayor capacidad de cálculo de los ordenadores cuánticos y sobre todo a su capacidad para resolver a la vez muchos problemas que están relacionados entre ellos.

Del mismos modo otros sectores en los que hay una gran complejidad a la hora de diseñar nuevos modelos de funcionamiento puede ser el ámbito financiero, el del transporte y la logística. Todos ellos se encuentran en un proceso de búsqueda constante de soluciones a los problemas que van encontrando según se van desarrollando y van creciendo en su actividad, lo cual no siempre va acompañado en mejoras a nivel de las infraestructuras correspondientes. Pensemos por ejemplo en la problemática que supone para los servicios de logística y mensajería el incremento exponencial que está experimentando el comercio electrónico, que empieza a generar problemas de gestión del tráfico en las ciudades.

Los ordenadores cuánticos también pueden resultar de mucha utilidad y funcionan con una gran agilidad, cuando se trata de encontrar datos en grandes bases de datos, lo cual vamos a ver a continuación que tiene una relación directa con la Inteligencia Artificial, al ser el Big Data uno de los pilares sobre el que se sustenta esta tecnología.

Para conocer más posibles casos de uso de la computación cuántica os recomendamos consultar este documento realizado por la empresa Zapata Computing.

La relación entre la Computación Cuántica y la Inteligencia Artificial

No debe ser casualidad que la estrategia de Google en lo referente a la computación cuántica se esté enmarcando dentro del trabajo que realiza con la Inteligencia Artificial y es que, como muy bien explicó Asier Arranz en el primer meetup Quantum & Beers celebrado en el sHub Madrid de Sngular, la capacidad de cómputo se ha convertido en una de las grandes ventajas competitivas para las empresas, en algo mucho más valioso de lo que ha podido ser incluso el oro a lo largo del tiempo. Además tenemos que tener en cuenta que la Inteligencia Artificial asienta su desarrollo en tres pilares: los datos, los algoritmos y la capacidad de cómputo, por lo que es aquí donde la computación cuántica puede jugar un papel determinante para el futuro de la Inteligencia Artificial.

Ésto es así porque la forma en la que trabaja la computación cuántica puede ser de gran utilidad a la hora de su aplicación en procesos basados en redes neuronales y deep learning. Por un lado, el aprendizaje automático por refuerzo precisa de una gran cantidad de simulaciones con estados iniciales aleatorios, por lo que la computación cuántica, que trabaja de forma natural con muestreos aleatorios, puede dar rapidez y eficiencia al proceso. Por otro lado, ambos ámbitos de cómputo tienen una base probabilística y eso permite que se sincronicen muy bien los resultados: un modelo de machine learning predice cierto resultado con un tanto por ciento de fiabilidad, y los algoritmos de computación cuántica apuntan hacia soluciones más probables que otras para ser después probadas con computación clásica.

De esta forma se ha llegado a hablar incluso del aprendizaje automático cuántico como un área de investigación interdisciplinaria emergente que se encuentra en la intersección de la física cuántica y el aprendizaje automático . Así el aprendizaje automático cuántico (QML) es una subdisciplina de la computación cuántica que tiene el objetivo de desarrollar algoritmos cuánticos que aprendan de los datos para mejorar los métodos existentes en el aprendizaje automático.

Conclusión

El desarrollo de la computación cuántica vive un momento dulce, ya que muchas empresas y profesionales comienzan a interesarse por esta tecnología más allá del ámbito teórico y científico, que es donde ha estado desde que Richard Feynman propuso la idea de construir ordenadores basados en los principios de la mecánica cuántica. No sabemos si con la computación cuántica ocurrirá lo mismo que ocurrió con la Inteligencia Artificial y en poco tiempo veamos llegar “un invierno”, que haga descender el interés por esta tecnología, debido probablemente a la dificultad de resolver problemas actuales como el del “ruido”. Pero en todo caso nos atrevemos a considerar que estamos ante una tecnología que tendrá un gran desarrollo en el futuro, por un lado por su capacidad para resolver problemas que actualmente han tenido que dejarse de lado, por la dificultad de resolución con las tecnologías actuales y por otro lado por la enorme complementariedad que tiene con la Inteligencia Artificial. De esta forma en los próximos años veremos cómo las necesidades de capacidad de cómputo que requieren ciertos algoritmos de Big Data e Inteligencia Artificial son tan exigentes que valdrá la pena invertir para solucionar los problemas que se puedan ir encontrando en el desarrollo de la computación cuántica.

Etiquetas: , ,

La voz como interfaz en la era de la transformación digital

Publicado el 14 abril, 2019

Nos encontramos ante un momento de constante cambio derivado de la transformación digital. Los avances en inteligencia artificial, el uso de los datos para la toma más efectiva de decisiones o la conexión de nuestros dispositivos con la nube (IoT), han ido transformando distintas áreas de la actividad humana a una velocidad insólita. En este contexto, aparece la necesidad de encontrar formas de facilitar nuestra relación con la tecnología y hallar nuevos casos de uso que ofrezcan valor a las personas, convirtiendo la capacidad técnica en utilidad. Una de las formas más presentes de lograr simplificar esta relación humanizándola es utilizar la interfaz voz.

Mucho se ha avanzado desde que en 1920 se consiguió que el perro de juguete “Radio Rex” se asomase al pronunciar su nombre. La precisión en el reconocimiento de voz se estancó durante muchos años llevando al usuario a malas experiencias y frustraciones en la interacción. En 2010 se aumentó en gran medida esta precisión con el uso de deep learning y en 2017 Google consiguió una precisión del 95 %. Es cierto que el habla depende del lenguaje y el enfoque general del mercado global son las interacciones centradas en el inglés. En acentos muy cerrados de este idioma la precisión bajaba un 30 % y en español aún queda camino para alcanzar la misma fluidez.

Grandes tecnológicas como Apple, Amazon, Google, Microsoft, Samsung o IBM llevan ya tiempo poniendo foco en el desarrollo de plataformas de procesamiento de lenguaje natural con sus propios asistentes. Entran ahora en nuestros hogares a través de los smart speakers de Amazon y Google, transformando el uso de la voz como interfaz mainstream.

No obstante, la interfaz voz no es adecuada para cualquier interacción. Hay que entender cuándo resuelve de forma más rápida que la pantalla el problema del usuario, o incluso si conviene hacer una interacción multicanal en la que se utilizan diferentes canales. Por ejemplo, el diálogo funciona bien para reservar las salas de una empresa, pero no resulta tan efectivo si se quiere obtener un listado de las salas que hay. Aún así, vamos a ver un cambio de paradigma en la forma en la que interactuamos con la tecnología tan grande como cuando aparecieron los smartphones y sus apps.

Esta revolución tecnológica abre las puertas a nuevos casos de uso, a nuevos modelos de negocio y, por tanto, a una oportunidad para las marcas. ¿Cuál es el tamaño de mercado y las tendencias en el sector? ¿En qué áreas tendrá mayor impacto? ¿Qué valoran más los usuarios? ¿Cómo podríamos monetizar ese valor a través de este canal? ¿Cómo conseguimos llegar a nuestros usuarios? ¿Cuáles son algunos de los casos de uso de mayor impacto?

Las respuestas a estas preguntas se han recogido en un informe con el objetivo de compartir algunos aprendizajes sobre el mercado de la voz como canal de comunicación entre personas e inteligencias artificiales, para poder entender en qué mercados y en qué casos de uso invertir a la hora de desarrollar productos a través de la interfaz voz. Para acceder a él tan sólo es necesario completar un rápida encuesta que ayudará a seguir profundizando en este estudio.

Etiquetas: ,

Más talento y menos trabajo

Publicado el 07 marzo, 2019

«Oye, niño, ¿y tú qué quieres ser de mayor?». Nos resulta bastante obsoleta esta pregunta. Abogado, médico, bombero, astronauta, arquitecto… Las profesiones vocacionales pueden seguir teniendo sentido durante mucho tiempo, pero cada vez tendrán menos que ver con el concepto de trabajo y tomará más protagonismo el de talento. Un trabajo se aprende y se practica, pero el talento está más relacionado con factores intrínsecos como la genética, nuestra forma de ser, además del ambiente en el que nos desarrollamos, las cosas que nos motivan en nuestro entorno y la influencia que recibimos de las personas cercanas.

Durante muchísimo tiempo se le ha dado mucho más valor en la sociedad al trabajo que al talento, por eso la formación se concentra en inculcarnos conocimiento, pero muy poco en desarrollar nuestras habilidades. En esta nueva era digital en la que vivimos, en la sociedad del conocimiento, hace mucho que dejamos atrás cambios tan importantes como el que se produjo con la revolución industrial, en la que millones de personas dejaron de vivir en el campo, dedicados a la agricultura, para habitar en las ciudades trabajando en las fábricas. Esto que para los países occidentales ocurrió hace décadas, está sucediendo ahora también a nivel global, como podemos ver en este gráfico:

La siguiente etapa en este camino de evolución de la humanidad puede estar en un nuevo modelo de sociedad en la que el trabajo, tal y como ahora lo conocemos, cada vez sea menos importante para las personas, ya que pasará a estar mayoritariamente ejecutado por las máquinas. Unas máquinas que han sido programadas por personas para llevar a cabo las labores que hasta ahora realizaban ellas de forma mecánica.

En el año 2017 la revista médica BMJ Open publicó un estudio de carácter global en el que se mostraba que las consultas médicas de atención primaria duran de media menos de 5 minutos para la mitad de la población mundial, oscilando entre los 48 segundos en Bangladesh y los 22,5 minutos en Suecia. Como os podéis imaginar, si el trabajo de un médico consiste en atender a pacientes durante 8 horas al día en turnos de 5 minutos, claramente hay algo que falla en la forma en la que se concibe el trabajo a nivel sanitario, por poner un ejemplo.

Siguiendo con el tema de la salud, hace tiempo que se vienen haciendo pruebas con Inteligencia Artificial en las que se demuestra que una máquina puede resultar significativamente más eficiente en tareas como el análisis de imágenes para, por ejemplo, la detección del cáncer. Y como este, cada vez vamos a conocer más casos en los que las máquinas se imponen en determinados puestos hasta el momento limitados a las personas. Es tan simple como que ahora, en algún lugar del mundo, hay un programador especializado en Machine Learning que está trabajando para que esto ocurra.

Ante este escenario se hace cada vez más necesario un cambio en la estrategia con la que abordamos el tema del trabajo: ha llegado la hora de comenzar a enfocarnos en el talento.

Empecemos por la educación

Mucha gente piensa que cambiar la mentalidad de las personas cuando son adultas es mucho más complicado que cuando se encuentran en la infancia y están en las primeras etapas del aprendizaje. La realidad es que las transformaciones que se están produciendo en la sociedad debido al impacto de la tecnología son tan importantes que no podemos esperar a intervenir únicamente en la educación de la infancia y la juventud. Tendremos que hacerlo también con los adultos para poder fomentar el cambio de mentalidad que se necesita para afrontar con mejores garantías el futuro al que nos encaminamos.

«Nunca dejé que la escuela interfiriera con mi educación» Mark Twain.

En lo que al modelo educativo se refiere nos encontramos con que llevamos ya bastantes años hablando de la necesidad de cambio y adaptación a las necesidades reales de la sociedad o del mercado de trabajo, pero la realidad parece mostrar que estas transformaciones no se están produciendo con la suficiente intensidad y velocidad. Seguramente será porque los planes educativos con los que ahora contamos se siguen enfocando en el aprendizaje de materias y en la adquisición de conocimiento, pero muy poco en las habilidades, las destrezas y en el fomento del talento con el que cuenta cada persona para que pueda ser aquello en lo que destaque en el futuro.

Educar con la Inteligencia Artificial

Mientras seguimos en la búsqueda de esos nuevos modelos educativos que potencien el talento de las personas, también va a ser necesario empezar a considerar de qué forma podemos aprovechar la Inteligencia Artificial, sobre todo, aunque también otras tecnologías como la Realidad Virtual en el corto plazo o la Neurotecnología, más a largo plazo.

En lo que a Inteligencia Artificial se refiere, nos dirigimos a un futuro en el que los humanos amplificaremos nuestra inteligencia gracias a la tecnología. Al igual que han hecho los jugadores de ajedrez desde que Deep Blue venció a Gary Kasparov, empezar a trabajar junto a una Inteligencia Artificial nos puede ayudar a aprender más y mejor. Esto puede servirnos para más adelante pasar a un siguiente nivel, cuando ya seamos capaces de conectar nuestra mente con esa máquina dotada de inteligencia que se convertirá en nuestro asistente o complemento de cara al aprendizaje.

Sin duda, esto puede sonar muy futurista, pero también puede parecer cosa del futuro que en los colegios se enseñe Inteligencia Artificial, algo que ya es una realidad en China. Han introducido desde los primeros años de educación en la escuela una asignatura de IA, gracias a la cual los niños se pueden ir familiarizando con esta tecnología, que muy pronto empezarán a utilizar como consumidores, pero sobre todo a nivel profesional. La apuesta del gobierno chino por el desarrollo de esta tecnología es decidida y se refleja en iniciativas como esta. ¿No os parece que noticias como esta deberían hacernos pensar que en nuestras escuelas también podríamos empezar a trabajar con estos avances para mejorar la forma en la que aprenden los alumnos y para que cuando accedan al mercado laboral estén mejor preparados?

Por suerte en España se está empezando a trabajar también en este ámbito, con iniciativas como el Simposio de IA en Educación de la Fundación Maecenas que reúne a especialistas en IA con profesionales de la educación para trabajar en cómo la Inteligencia Artificial puede ayudarnos a mejorar en este ámbito.

Enseñar filosofía

Cuando hablamos de un futuro en el que la Inteligencia Artificial tenga tanta relevancia, mucha gente puede asustarse y realmente puede ser un problema si se pone en práctica de manera equivocada, enfocando todo ese desarrollo en la propia tecnología sin tener en cuenta los factores humanos. La manera de contrarrestar esta posible situación futura es por medio de la enseñanza de la filosofía y las humanidades.

Es fundamental que en el proceso educativo se trate la filosofía como una herramienta que nos puede ayudar a ser mejores personas y mejores profesionales. Porque ahora es una asignatura que se aprende y se olvida, pero la mayoría de las veces no produce ningún impacto en la vida de los estudiantes, más allá del aburrimiento y alguna que otra noche sin dormir para poder aprobar el examen del día siguiente.

En la escuela hay muchas cosas que no se enseñan o a las que no se les da la suficiente importancia, por ejemplo aspectos relacionados con la salud o con las finanzas. Está claro que esto se debe trabajar más en la familia, pero la escuela puede ser también un lugar de apoyo para aspectos que van a resultar tan importantes en la vida de las personas en su futuro. Y en lo que a filosofía se refiere, la escuela es un lugar ideal para leer las obras de los filósofos más influyentes. Y, por cierto, no sólo los occidentales: la filosofía oriental es muy poco tratada en nuestras escuelas y sin embargo es muy recomendable para entender cómo funciona el mundo y las personas.

Leer filosofía y, sobre todo, debatir sobre ella en el aula puede resultar muy valioso para la educación y la formación de los profesionales del futuro, que se van a enfrentar a retos en su trabajo equivalentes al que supuso en su momento el cambio desde el modelo productivo basado en la agricultura al industrial. Estas transformaciones son tan profundas que no pueden afrontarse exclusivamente desde el ámbito personal. Por este motivo resulta valioso «subirse a hombros de gigantes» para poder entender lo que nos sucede.

No nos olvidemos del arte

¿No os parece curioso que los expertos en Inteligencia Artificial estén dedicando tanto empeño en enseñar a las máquinas a crear arte? Música, pintura, cine… Si seguimos las noticias sobre los avances en Machine Learning descubriremos casos como el del software que es capaz de pintar obras como si se tratase de un discípulo de Rembrandt o el cuadro creado por una máquina que ha llegado a ser subastado por la prestigiosa Sotheby’s.

Si los que están desarrollando la Inteligencia Artificial se preocupan por enseñarles a crear arte, ¿no deberíamos trabajar más este aspecto desde la educación? No solo en el colegio, donde sí que se trabaja bastante este tema. ¿Por qué dejamos de desarrollar las habilidades artísticas cuando terminamos el colegio? Aquellos que cultivan esta habilidad pueden enfrentarse mejor a los retos que le surjan a nivel profesional, gracias al desarrollo de la creatividad y a la mayor sensibilidad que proporciona el haberse dedicado a las actividades artísticas.

Que la educación nunca acabe

Otro error que podemos estar cometiendo como sociedad, en lo relativo al modelo educativo, es considerar que la educación es algo que comienza en la escuela y acaba en la universidad, o más bien que es algo que ocurre exclusivamente en esas instituciones. El día que se fomente que el aprendizaje y la formación son algo que debe formar parte de nuestra vida a lo largo de todo nuestro desarrollo, estaremos ganando mucho como personas y como profesionales.

Esto de pasarse la vida aprendiendo y formándose es algo que tienen muy bien interiorizado los científicos. Su trabajo sería imposible sin dedicar una parte de su tiempo a aprender los descubrimientos y técnicas que van realizando otros compañeros de profesión, ya que es sobre esto sobre lo que a su vez construyen sus propias investigaciones. En las profesiones técnicas también es muy patente esta necesidad de estar aprendiendo siempre nuevas tecnologías, lenguajes o metodologías, para poder afrontar los retos cada vez más exigentes que exige el desarrollo tecnológico.

Pero ¿qué ocurre con el resto de profesiones? Pensemos, por ejemplo, en los profesores, que estudiaron una carrera en la que adquirieron muchos conocimientos, que luego demostraron a través de una oposición y que finalmente acaban enseñando a otras personas. ¿No debería un profesor dedicarse a aprender cada vez más para poder enseñar mejor? No cabe duda de que muchos así lo hacen, pero seguro que la mayoría se limitan a contar con la base necesaria para desarrollar su profesión. Si queremos que las cosas mejoren a nivel de educación, esto ahora ya no es una buena opción. Por suerte, desde que tenemos internet, con las plataformas de elearning como Coursera y Udemy, disponemos de un abanico infinito de posibilidades para seguir aprendiendo, de manera que podamos seguir mejorando como personas y profesionales.

Pero ¿por qué no se proponen los colegios y universidades seguir vinculados con sus alumnos en su futuro profesional? Cuando yo dejé mi colegio de toda la vida, nunca nadie me escribió o me llamó para ofrecerme seguir vinculado de alguna forma en lo que a educación se refiere. Simplemente alguien decidió que ya no me necesitaba como «cliente». Lo mismo en la universidad. ¿Por qué no se desarrollan planes de carrera en el largo plazo de manera que podamos seguir formándonos en estas instituciones a lo largo de toda nuestra vida profesional?

Especialmente ahora que muchas universidades tienen problemas para sobrevivir por la falta de alumnos. Sería una forma fantástica de seguir generando negocio gracias a la formación continua de profesionales, no sólo a través de posgrados o doctorados, sino de cursos específicos que ayuden a seguir mejorando en la profesión, ampliando y mejorando lo que se supone que se aprendió en la carrera.

¿Por qué tener un único trabajo?

Dejando un poco el tema de la educación para avanzar hacia el tema del trabajo, hay aspectos relacionados con el modo en el que enfocamos nuestra vida profesional que deberíamos empezar a cambiar para adaptarnos a los cambios que se van a producir como consecuencia del avance tecnológico. Podría empezar a estar obsoleto el modelo actual de trabajo que nos «obliga» a dedicarnos a una única labor 8 horas al día, 5 días a la semana, 20 días al mes y más de 200 días al año. Seguramente sería más motivador un modelo en el que podamos compaginar varios trabajos o proyectos, cambiar de actividad de vez en cuando y desarrollar varias habilidades. Aunque el foco sea algo muy importante para lograr la excelencia a nivel profesional, por otro lado estar siempre haciendo lo mismo puede resultar tedioso y acabar con nuestra creatividad.

Es cierto que en muchos puestos es habitual cambiar de actividad con mucha frecuencia, sobre todo si tenemos cierta responsabilidad, tenemos que coordinar las tareas de otras personas o nuestro rol depende de los proyectos que tengamos que desarrollar. Pero, en cualquier caso, a lo largo de los años puede notarse ese agotamiento. Cambiar de trabajo es una opción, lo cual hace unos años era muy poco habitual. Sin embargo, que una persona tenga varios trabajos a lo largo de su vida es ahora lo más normal.

Esa posibilidad de tener un trabajo alternativo o secundario puede aportarnos una frescura en nuestro camino laboral que haga que seamos más felices en nuestra profesión y, en general, en nuestra vida. Por eso cada vez se habla más del concepto de Side Project, una forma de avanzar o mejorar en temas profesionales que incluso puede ayudar también a la empresa a la que nos dedicamos. Es el famoso 20% del tiempo que dedican los trabajadores de Google a proyectos personales, que luego pueden convertirse en nuevos negocios de la empresa. Aquí se incluye también la actividad secundaria que realizan muchos profesionales que, además, son profesores, conferenciantes o escritores, entre muchas otras opciones.

Más talento y menos trabajo

Volvamos al título de este artículo para profundizar en la idea de darle más valor al talento que al trabajo. Cuando hablamos de trabajo nos referimos a dedicar una serie de horas al día a llevar a cabo una labor dentro de una empresa o de cualquier tipo de organización por la cual recibimos una remuneración. ¿No os parece que no tiene mucho sentido que todas las personas tengamos que trabajar exactamente ocho horas al día? ¿Es que todos los profesionales somos iguales en lo que se refiere a nuestra capacidad para sacar adelante labores, a nuestra productividad y a la creatividad? Al igual que hace tiempo en el ámbito educativo se viene hablando de que cada persona tiene un ritmo y forma de aprendizaje, con el trabajo debería ocurrir lo mismo.

En un futuro no muy lejano, en el que las personas cada vez tendremos que realizar menos tareas rutinarias porque habrá un software o robot que lo hará de una manera más eficiente que nosotros, lo que marcará la diferencia en relación con el trabajo será el talento, no el tiempo que dediquemos a nuestras tareas profesionales ni la experiencia que tengamos realizando determinadas labores. Entonces tomará mucha más relevancia la creatividad, la improvisación, la capacidad para resolver problemas y la forma en la que entendamos las necesidades de las personas, de los clientes o de nuestros compañeros de trabajo.

Por lo tanto, es importante que comencemos a darle más valor a todos estos aspectos, en lugar de a otros que hasta hace poco se consideraban prioritarios, como tener cierta titulación o experiencia. Cada vez adoptarán más valor las denominadas habilidades blandas, mientras que las otras poco a poco van a ir quedando en segundo plano.

Llegados a este punto muchos os podéis estar preguntando, me gusta este planteamiento, pero ¿cómo puedo comenzar a aplicarlo en mi trabajo o en mi empresa? Por suerte comenzamos a contar con herramientas que pueden resultarnos de gran utilidad en este proceso, como son las metodologías ágiles y especialmente una metodología de gestión del talento llamada OKR, de la que os hablaremos en próximos artículos de Futurizable.

Etiquetas: , ,

Resultados de la encuesta Futurizable sobre Chatbots y Asistentes Virtuales

Publicado el 16 diciembre, 2018

Hace unas semanas lanzamos desde Futurizable una encuesta con el objetivo de conocer vuestra opinión sobre el uso que estáis haciendo de esta nueva herramienta digital y las expectativas de futuro que pensáis que pueden tener.

100 lectores de Futurizable habéis participado en la encuesta, así que lo primero es daros las gracias porque a partir de vuestras respuestas podemos mejorar nuestra visión sobre el tema y tenemos la oportunidad de compartirla aquí para entre todos ir construyendo conocimiento.

A continuación compartimos los resultados de la encuesta Futurizable sobre Chatbots y Asistentes Virtuales.

Sin duda, gracias a estas respuestas, nos llevamos una visión mucho más clara sobre la opinión que existe de la forma en la que se está usando esta tecnología actualmente y cómo se va a utilizar en el futuro. Es cierto que la audiencia de Futurizable es especial porque está formada por early adopters de la tecnología, pero viendo los resultados de la encuesta se observa perfectamente que estamos ante una tendencia que va a tener un importante desarrollo en el futuro.

Además, vamos a desgranar a continuación algunas ideas que nos habéis regalado al respecto del desarrollo futuro de los chatbots y asistentes virtuales.

Si te has comprado ya un altavoz inteligente, ¿podrías contarnos tu experiencia?

    • Me está resultando de utilidad al utilizarlo en combinación con otros dispositivos inteligentes como son enchufes y termostatos… en el ámbito del hogar inteligente.
    • Estoy empleando Alexa desde hace unas semanas. Principalmente para actividades relacionadas con domótica, entretenimiento (música) e información (noticias y tiempo). Tengo la sensación de que necesito aprender YO a usarlos y que el sistema está demasiado encasillado en el sistema de inputs.
    • He sido tester de Amazon Echo y la experiencia ha sido regular. No ha cumplido expectativas, pregunta aparentemente sencillas «de wikipedia» no las podía contestar. Al final la usaban los niños para chistes y el tiempo.
    • Tengo Alexa y me ayuda con las luces, temporizadores y spotify. Aunque hablo inglés, probablemente me podría ayudar más a mí y al resto de mi familia si estuviera en castellano.
    • He comprado un Echo Dot recientemente. Si sigues la conversación estandard, todo va más o menos bien, pero si te sales del guión… Aún queda mucho camino, pero mejor estar ya subido en la ola.
    • Para tareas sencillas como la lista de la compra o preguntas sencillas para los deberes de los niños está bien, pero la mayoría de las preguntas no las entiende o no ha aprendido todavía.
    • No le veo utilidad en estos momentos. Prácticamente no utilizo Siri, solo cuando estoy en el coche y tengo que hacer una llamada. Es mucho más rápido teclear y no recordar como se llama exactamente el contacto.
    • Hay veces que no entienden lo que les preguntas. Pero el mayor peligro que le veo es que iremos perdiendo pensamiento crítico en favor de las decisiones de los algoritmos que lo definen. Ya no decidimos dónde comer por lo que nos cuenten o por el aspecto del local, lo hacemos porque Google nos lo recomienda. Creo que es un error.
    • Nos regalaron el Google Home. Toda la familia lo utilizamos básicamente para poner música o manejar la iluminación conectada. A veces también le preguntamos cosas, pero que sea en inglés hace que la comunicación no sea muy fluida.
    • Alexa tiene más capacidades (para comunicarte, para realizar acciones, se puede mantener una conversación con ella, al menos en inglés). Google Assistant está mucho más limitado, de momento usado para hacer búsquedas de información, preguntar significados de palabras en otros idiomas, el tiempo… No se puede mantener un diálogo fluido (al menos en español)
    • Tengo el de Google, y ya no cojo el móvil ni el portátil para consultas rápidas o gestiones básicas como puede ser usar el calendario, alarmas…
    • He comprado el Amazon Echo y el Google Home, me gusta más el de Amazon.
    • Uso Google Assistant en mi teléfono y en un Home Mini. Tiene carencias pero mucho potencial.
    • Por ahora no dejan de ser un juguete que ofrece algunas funcionalidades útiles pero limitadas.
    • Está bien pero cuando intentas hacer algo medianamente complicado siempre tienen un comportamiento errático.

Sin duda unas respuestas muy ilustrativas al respecto de la situación actual de uso de esta tecnología, donde claramente observamos que hay aún mucho por mejorar, pero donde se intuye que el recorrido a largo plazo puede ser muy importante.

¿Puedes recomendarnos algún chatbot que consideres especialmente interesante?

Resulta llamativo que de 100 personas que habéis participado en esta encuesta tan solo se hayan realizado 4 recomendaciones de chatbots. Teniendo en cuenta que cada vez son más las empresas que apuestan por crear este tipo de herramientas en aspectos como la atención al cliente y de startups que están desarrollando aplicaciones para todo tipo de utilidades, queda claro que aún estamos en un momento muy incipiente en lo que se refiere a la utilización de esta tecnología más allá de los servicios que ofrecen las grandes empresas tecnológicas ya sea a través de los Smartphones o de los Altavoces Inteligentes.

Por lo tanto, en base a las respuestas de la encuesta sobre las expectativas de futuro de esta tecnología, donde vemos que el recorrido es muy grande, pero por otro lado la aplicación real en estos momentos está siendo muy escasa, podemos pensar que nos encontramos ante una gran oportunidad que debemos aprovechar todos aquellos que podemos tener iniciativa para la puesta en marcha de nuevos negocios digitales.

Etiquetas: ,

La inversión en tiempos de Inteligencia Artificial

Publicado el 29 noviembre, 2018

Los mercados de valores andan muy revueltos. Podría ser porque están anticipando una nueva crisis económica o simplemente porque los que llevan mucho tiempo ganando dinero aprovechan el final de año para tomar beneficios. Pero probablemente sea una combinación de ambas cosas y otras muchas, sobre todo teniendo en cuenta que resulta casi imposible conocer en un momento determinado los intereses del conjunto de los inversores, además de que en los mercados hay grandes distorsiones ocasionadas por la especulación y la posibilidad de invertir tanto apostando porque un valor va a cotizar al alza como porque lo vaya a hacer a la baja.

Es por esto por lo que en los telediarios hay tanta diferencia entre los espacios de la información meteorológica y la de la información bursátil. En la primera nos cuentan el tiempo de hoy y la previsión de los próximos días debido a la situación de la atmósfera y en la segunda intentan explicarnos por qué la bolsa ha subido o bajado, pero nunca nadie se atrevería a decir qué va a ocurrir mañana. Es como si un periodista deportivo se atreviera a dar los resultados del partido del día siguiente y también la razón por la que tiene tanto éxito el tema de las apuestas deportivas.

Además, a la complejidad habitual que presentan los mercados financieros tenemos que añadir un fenómeno más reciente en el que encontramos cómo empieza a haber empresas e inversores que están intentando aplicar la Inteligencia Artificial a la toma de decisiones de inversión, lo cual nos lleva a un escenario mucho más complejo que nadie sabe qué consecuencias puede tener para los mercados de valores. En este punto tengo que decir que he conocido a gente muy inteligente intentando crear sistemas automatizados de inversión basados en Inteligencia Artificial y por ahora ninguna de esas personas ha desaparecido porque se haya comprado una isla en el Pacífico gracias al resultado de sus inversiones.

En todo caso, aquí tenemos que diferenciar dos formas de utilizar la Inteligencia Artificial en el mundo de la inversión o especulación. En primer lugar, la que probablemente tenga más sentido en el corto o medio plazo, que consiste en optimizar y maximizar la forma en la que aplicamos determinado método de inversión con el objetivo de automatizar determinadas acciones o incluso la toma de decisiones. La segunda forma sería esperar que una Inteligencia Artificial sea capaz de entender cómo funciona un determinado mercado de valores para ayudar al inversores a poder anticiparse a la hora de tomar la decisión de invertir o desinvertir en el momento que le pueda reportar un mayor beneficio.

Como os podéis imaginar la tarea no debe ser sencilla, porque de serlo ya lo habría conseguido alguien. Pero lo que sí que puede estar ocurriendo es que aquellos que están trabajando en su desarrollo están haciendo que la complejidad en los mercados sea mayor, quizás por su propia evolución o porque cada vez son más los activos que se suman a las posibilidades existentes en el momento de llevar a cabo inversiones o especular. Así, a los activos tradicionales como las acciones de empresas, las materias primas o las divisas, se ha sumado recientemente el de las criptomonedas, un mercado que hace 10 años no existía y que en su mejor momento a principios de este año llegó a tener una capitalización total de más de 800 billones de dólares.

Curiosamente por la coincidencia en el tiempo del auge de las criptomonedas con el de un nuevo desarrollo en la Inteligencia Artificial a través del Machine Learning, ha sido en este nuevo tipo de inversión donde ha habido más interés por aplicar los algoritmos a la hora de la toma de decisiones. Es el caso de la startup Cryptics, que busca ayudar proporcionando liquidez en los exchanges y un colchón de seguridad para los inversores minoristas mediante la creación de una plataforma que conecta a los actores del mercado y desarrolla algoritmos para predecir los cambios en el valor de las criptomonedas. Su tecnología, basada en modelos de puntaje altamente avanzados que involucran el aprendizaje automático y las redes neuronales, buscan superar a la intuición humana, considerando que la multitud de factores que intervienen en la predicción del aumento o disminución de cualquier criptomoneda se tienen en cuenta en los algoritmos que utiliza la empresa. Su diseño les permite abarcar un gran número de fuentes abiertas y recopilar información sobre los tipos de cambio desde las redes sociales y los exchanges, teniendo en cuenta las posibles tendencias a través del análisis del lenguaje natural. La aplicación de tecnologías NLP permite analizar masas de datos que los analistas humanos habrían tardado días en analizar.

«Los robots no duermen, no se cansan y apenas necesitan tiempo para realizar millones de cálculos, por lo que se agilizan muchísimo todos los procesos relativos a la realización de las inversiones»

Por otro lado, también empezamos a encontrarnos con una aplicación directa de la Inteligencia Artificial en los mercados de inversión que parece estar distorsionando la manera habitual de operar en estos mercados, al igual que lo hizo en su momento la opción de invertir en corto o posicionarse a la baja con determinados tipos de activos. Ahora los algoritmos y robots virtuales están permitiendo el desarrollo de un nuevo modelo de inversión denominado High Frequency Trading, que permite a los que la utilizan realizar millones de operaciones por segundo, aprovechando la demora de tiempo con la que la bolsa muestra la información de las cotizaciones de los activos. Como os podéis imaginar, este nuevo tipo de forma de inversión se basa en aprovechar una pequeña ineficiencia del sistema para obtener un pequeño beneficio, pero lo que ocurre es que cuando lo repercutimos en millones de operaciones, puede suponer un buen modelo de negocio para los que lo desarrollan.

Lo malo es que cuando este tipo de operaciones se masifican, como está ocurriendo en estos momentos, en relación con el número de operaciones que se produce en la bolsa, cualquier fallo que se produzca a nivel del sistema puede generar un caos en los mercados. Del mismo modo que este tipo de sistemas se basan en optimizar al máximo las operaciones, lo que está sucediendo es que las fluctuaciones se vuelven mucho mayores, algo que podría ser una explicación a lo sucedido el lunes 5 de febrero de 2018, cuando el Dow Jones llegó a caer en un momento determinado más de un 6%, la mayor caída en su historia. Un fenómeno que se ha denominado como Lunes Negro.

¿Cómo puede mejorar la Inteligencia Artificial los modelos de inversión en activos financieros?

Al igual que estamos viendo en multitud de sectores de la economía, como en el sector del transporte, donde la Inteligencia Artificial va ha producir cambios muy profundos en los próximos años a través de los denominados coches autónomos, esta tecnología también puede ofrecer una utilidad importante a la hora de mejorar la forma de invertir en los mercados financieros que hasta ahora ha venido definida por las características y limitaciones de personas u organizaciones concretas. Por ejemplo, introducir la automatización en el ámbito de la inversión puede eliminar restricciones como la relativa a los horarios en los que funcionan las distintas bolsas a nivel mundial, ya que los robots no duermen, no se cansan y apenas necesitan tiempo para realizar millones de cálculos, por lo que se agilizan muchísimo todos los procesos relativos a la realización de las inversiones.

A continuación vamos a conocer algunas de las posibles aplicaciones de la Inteligencia Artificial en la inversión en mercados financieros, ya sea porque están desarrolladas actualmente o porque podrían estarlo en el futuro.

  1. Personalizando los modelos de inversión en base los perfiles de los inversores. De esta forma, las herramientas basadas en Inteligencia Artificial podrán conocer el perfil de riesgo del inversor y ofrecerle únicamente los instrumentos disponibles que mejoren el rendimiento y minimicen el riesgo de su cartera. Porque si en algo se ha estado trabajando en los últimos años en relación con la Inteligencia Artificial es en lo relativo a sistemas de recomendación, como el famoso algoritmo de recomendación de productos de Amazon, que en este caso se podría aplicar cuando el sistema vaya aprendiendo del tipo de productos y operaciones que el inversor suele realizar, para poder darle un asesoramiento personalizado al respecto.
  2. Mejorando el acceso a la información del mercado. Ya que hasta ahora, para poder invertir, era necesario dedicar mucho tiempo a analizar los movimientos del mercado y ahora, gracias a la Inteligencia Artificial, los inversores tendrán la capacidad de analizar un gran número de noticias en relación con la evolución del negocio de determinada empresa o su percepción por parte del mercado, algo que sus acciones finalmente pueden acabar reflejando. En este caso el inversor contará con esa especie de información privilegiada en cuanto a que lo ha podido saber con anterioridad gracias a estos nuevos sistemas de información.
  3. Optimizando los procesos de inversión y la toma de decisiones. Disponer de una herramienta de Inteligencia Artificial que pueda realizar de forma autónoma el análisis de un instrumento financiero y su impacto al incorporarlo en un portafolio de inversión permitirá al analista enfocarse en los aspectos más sofisticados del proceso. De este modo, si hasta ahora los inversores se veían limitados por el tiempo al realizar los procesos de análisis de las empresas, con este nuevo tipo de herramientas podrán ampliar significativamente su horizonte de oportunidades en las que participar y eso ayudará a que puedan mejorar también su modelo de inversión.
  4. Inversión en base a los datos y al modelo de inversión, en lugar de la intuición. Ya que cumplir a rajatabla el modelo de inversión resulta fundamental para todo inversor, pero en muchas ocasiones es muy difícil evitar tomar decisiones basadas en la euforia o el miedo, algo que la máquina nunca va a hacer, ya que se limitará a cumplir las instrucciones con las que haya sido programada. Un ejemplo muy representativo de esto es lo que en el lenguaje bursátil se denomina como Stop Loss y que consiste en el porcentaje de pérdida que un inversor está dispuesto a admitir dentro de su sistema de inversión. Por debajo de un precio determinado el sistema obligaría al inversor a vender para minimizar las pérdidas, pero cuando llega el momento de la verdad las personas somos débiles y muchas veces no tomamos las decisiones desde la lógica sino desde la intuición, un error que una máquina no va a cometer.
  5. Creación de nuevos tipos de activos financieros diseñados con Inteligencia Artificial. Por ejemplo, de cara a ofrecer la posibilidad de invertir en nuevos tipos de activos que hasta ahora no cotizaban en bolsa debido a determinada complejidad o por su pequeño tamaño. Este puede ser el caso de las pymes, que no cotizan en mercados por los altos costes de gestión de los mismos, pero donde la tecnología puede hacer una gran aportación a la hora de reducir costes y popularizar el acceso a la financiación e inversión. La Inteligencia Artificial nos puede llevar a un siguiente nivel dentro de este nuevo modelo de inversión que ha surgido hace muy pocos años llamado crowdfunding, que está teniendo un notable éxito, por ejemplo, en lo que se refiere a la financiación de startups o para facilitar el acceso a pequeños inversores a la inversión en activos inmobiliarios a través del crowdfunding inmobiliario.

Ejemplos de empresas que aplican la Inteligencia Artificial a la inversión en mercados financieros

Aunque en estos momentos nos encontramos en las primeras fases de aplicación de la Inteligencia Artificial en los mercados financieros, vamos a ver a continuación cómo ya están surgiendo algunas iniciativas por parte de las startups que buscan ayudar a los inversores a mejorar el resultado de sus inversiones gracias a la aplicación de esta tecnología. En todo caso tenemos que fijarnos en que dentro del ámbito Fintech esta parte de las inversiones está siendo una de las últimas en incorporarse, ya que en los últimos años hemos visto muchos avances en relación con los medios de pago, banca móvil y acceso a financiación, pero muy poco en relación a la parte de inversión en mercados financieros. Sí es cierto que ha habido algunas excepciones, como por ejemplo los nuevos brokers eToro y Robinhood, que buscan facilitar el acceso a la inversión, ya sea añadiendo el componente social o la facilidad de operar desde el móvil, pero aún así hay que saber que se trata de un tipo de actividad en la que aún participa poca gente por lo que es lógico que el interés de las startups haya sido menor.

A continuación vamos a conocer algunas startups que han decidido aplicar la Inteligencia Artificial para mejorar la inversión en mercados financieros, sobre todo cuando se trata de dar una recomendación de productos personalizados en función de las características de los inversores, con el objetivo de reducir los riesgos asociados con esta actividad.

ETFmatic, fundada por el emprendedor español Luis Rivera, quiere simplificar el proceso de inversión en los activos financieros denominados ETF, que son un tipo fondo de inversión cuya principal característica es que se negocia en mercados secundarios de valores. La empresa utiliza estrategias de inversión basadas en índices y fondos cotizados en bolsa para construir y administrar carteras de inversión únicas adaptadas a las preferencias y circunstancias personales de sus clientes. Su sistema de Inversiones Automatizadas permite crear fácilmente una cartera única de activos personalizada en función del cliente.

Danel Capital es una EAFI (Empresa de Asesoramiento Financiero) fundada por el emprendedor español Tomás Diago, especializada en asesoramiento de inversiones en renta variable, que establece sus estrategias de inversión utilizando Inteligencia Artificial, Machine Learning y Big Data. Se trata de la primera EAFI de España en utilizar tecnología avanzada para ayudar a su equipo experto en gestión financiera en la toma de decisiones, complementando y potenciando sus conocimientos. Cada día su software captura y genera una multitud de datos asociados a empresas que cotizan en Bolsa, y que alimentan un motor de inteligencia artificial en busca de patrones en miles de millones de datos que les permiten aumentar la probabilidad de éxito de sus inversiones.

Two Sigma se define como un gestor de inversiones con vocación científica, que lleva aplicando tecnología y ciencia de datos a los pronósticos financieros durante más de 17 años. Sus avances pioneros en Big Data, Inteligencia Artificial y Aprendizaje Automático han impulsado a la industria de la inversión. La empresa analiza los datos de las noticias para predecir los precios de las acciones, lo cual, bien aprovechado, podría ayudar a predecir los resultados financieros y generar un impacto económico significativo en todo el mundo.

Swanest propone que la industria financiera tradicional es defectuosa ya que los bancos impulsan sus propios productos pese a que no ofrezcan buenas rentabilidades, los asesores de inversión son caros o poco accesibles y los servicios de corretaje tradicionales siguen siendo complejos. Por ello piensan que ha llegado el momento de diseñar una solución de inversión que satisfaga las necesidades de las personas: simple de controlar, inteligente en su comportamiento y transparente. Su equipo reúne un amplio conjunto de conocimientos en los campos de ingeniería de software, gestión de inversiones y algoritmos, aplicando estas capacidades para desafiar el status quo.

Preseries es una plataforma automatizada para descubrir, evaluar y monitorizar inversiones en etapas iniciales, y especializada en startups, que basa su servicio en un modelado predictivo proporcionada por la empresa de Machine Learning BigML. Se trata de una tecnología pensada para ser utilizada por parte de empresas de Capital de Riesgo, M&A Corporativo, Private Equity, Desarrollo de Negocios, Estudios de Mercado y Consultoría de Gestión.

Los asistentes virtuales nos ayudarán a estar mejor informados a la hora de invertir

Un ejemplo muy concreto del uso de la Inteligencia Artificial en el ámbito de la inversión en mercados de valores es la iniciativa presentada recientemente por Banco Sabadell al ofrecer un skill de Amazon Echo que permite consultar, a través de la voz, la evolución de los valores bursátiles que cotizan en el mercado continuo español. De este modo, cualquier dispositivo que incorpore Amazon Alexa permitirá consultar información de la actualidad bursátil gracias al servicio digital creado por el banco. Una aplicación concreta del procesamiento del lenguaje natural que permite aportar a los usuarios servicios de valor añadido a través de los nuevos canales digitales de voz, en este caso para la evolución de las empresas que cotizan en el mercado continuo español.

Los Robo Advisors como ejemplo de aplicación de la Inteligencia Artificial en inversión en los mercados de valores

El concepto de Robo Advisors es bastante nuevo, pero en poco tiempo se ha convertido en uno de los protagonistas a nivel de iniciativas por parte de startups en el ámbito financiero y el Fintech. Su propuesta de valor consiste en ofrecer a sus clientes un servicio de gestión automatizado de inversiones, en forma de asesoramiento financiero y gestión online de carteras mediante algoritmos y con una mínima intervención humana. Estos servicios facilitan la creación de una cartera de inversiones personalizada y adaptan al contexto de cada persona mediante un sencillo test que se realiza cuando el usuario lo contrata. Posteriormente la elaboración y manejo de la cartera de inversión del cliente se hace de forma automatizada.

El asesoramiento digital que proporcionan los Robo Advisors está basado en algoritmos que se ejecutan mediante software de forma que prescinden de la gestión humana para operar, comprar y vender activos o trasladar los mismos a otros valore. Además, rebalancean los activos de la cartera de forma periódica para mantenerlos según sus proporciones definidas en un primer momento y así asegurar que los límites de riesgo previstos por el inversor no son alterados por las fluctuaciones del mercado.

Los primeros Robo Advisors que comenzaron a ofrecer servicios automatizados de inversión aparecieron por el año 2008 de la mano de las startups estadounidenses Betterment y Wealthfront. En España se empezaron a poner en marcha en el año 2014 con la aparición de Feelcapital y posteriormente otras startups como Indexa Capital, Inbestme, Finizens y Finanbest. A finales de 2017 los Robo Advisor españoles llegaron a gestionar más de 100 millones de euros​.

 

Como hemos podido comprobar a lo largo de este artículo, las aplicaciones de la Inteligencia Artificial en la actividad de inversión en mercados financieros puede tener un gran recorrido y ofrecer una gran utilidad, pero apenas nos encontramos en los albores de esta actividad. La complejidad que presentan estos mercados y el bajo interés del gran público por lo relativo a la inversión hacen que no estemos viendo un desarrollo tan importante como en otras actividades más cotidianas para la gente.

Si tenemos en cuenta que en el momento en el que nos encontramos la Inteligencia Artificial está siendo de gran utilidad para hacer mejor algo que las personas ya hacemos bien: por ejemplo, conducir un coche es algo complejo por la multitud de situaciones que se pueden producir, pero en la mayoría de los casos las personas hacemos bastante bien. Entonces es algo donde la Inteligencia Artificial tiene mucho que aportar con el fin de mejorar aún más el sistema, por ejemplo, a la hora de incrementar la seguridad o eliminar algunas de las problemáticas existentes como los atascos. Pero cuando nos llevamos esto al tema de las inversiones, nos damos cuenta de que invertir es algo que las personas no solemos hacer bien, tan solo algunos profesionales son capaces de obtener buenos rendimientos a su dinero, a no ser que veamos la inversión en el largo plazo donde sí que la mayoría de inversores ganan dinero. Por alguna razón, las personas pensamos en el beneficio rápido y ahí es donde se producen muchas pérdidas por parte de los inversores.

Así que, como conclusión, lo que seguramente acabemos viendo en el corto plazo es cómo se produce una combinación de la Inteligencia Artificial con los modelos de inversión en el largo plazo, donde la tecnología jugará un papel muy importante en el momento de optimizar procesos, reducir los costes asociados a la inversión y elegir los mejores activos en los que invertir.

Hagamos un símil, por ejemplo, con la inversión inmobiliaria: si el Big Data y la Inteligencia Artificial son utilizadas por startups como Geoblink para ayudar a las empresas a tomar mejores decisiones para saber dónde localizar sus negocios de venta al público, ¿por qué no hacer lo mismo cuando se trata de ayudar a los inversores a localizar zonas en las que vaya a haber una mejor evolución de los precios de las viviendas debido a movimientos de la población?

Etiquetas: , ,

¿Qué opinas de los chatbots?

Publicado el 22 noviembre, 2018

¿Piensas que pronto la voz se convertirá en la interfaz preferida por las personas para comunicarnos con las máquinas?

Los altavoces inteligentes, como el Echo de Amazon, podrían convertirse el regalo estrella de las Navidades de 2018 y, si esto ocurre, supondría el inicio de un gran cambio en la forma en la que las personas interactuamos con la tecnología. Si se popularizan los altavoces inteligentes, poco a poco iremos sustituyendo una parte importante del uso que hacemos de teclados, ratones y pantallas a la hora de transmitir instrucciones a ordenadores, smartphones y otros dispositivos para hacerlo principalmente a través de la voz.

¿Qué opinas de esto? ¿Veremos en el final de esta década el mismo auge que vivimos con los smartphones en el final de la década pasada?

Si esto ocurre, los chatbots y asistentes virtuales, como Siri, Alexa y Google Assistant, darán el relevo a las apps, que en la última década se han convertido en las grandes protagonistas en cuanto a negocios digitales, con ejemplos muy representativos como Instagram, Whatsapp, Uber, Airbnb… Entonces se producirán cambios muy relevantes en la forma en la que usamos las tecnologías digitales, que hasta ahora se han visto limitadas prácticamente a los ordenadores, smartphones y tablets, para proyectarse ahora en un gran número de dispositivos como pueden ser los smartwatches, los electrodomésticos inteligentes o los coches conectados.

Además, otros dispositivos que aún se encuentran en fase muy inicial de desarrollo, como pueden ser los auriculares inteligentes y las gafas inteligentes, nos llevarán a un escenario en el que estaremos en todo momento muy pegados a la tecnología contando con esta nueva posibilidad de interactuar con ella, principalmente a través de la voz.

Para profundizar sobre esta idea nos gustaría que participaras en una encuesta que nos puede ayudar a conocer mejor el grado de aceptación y adopción de las nuevas interfaces digitales a la hora de interactuar con la tecnología.

Muchas gracias por tu colaboración, que nos será de gran ayuda para las iniciativas que queremos desarrollar en Futurizable sobre este tema.

powered by Typeform

Etiquetas: ,

  • Libro Futurizable

    Libro Futurizable

    Si eres un profesional dedicado a la innovación o estás interesado en la tecnología que está por llegar, hazte con un ejemplar de Futurizable. En este libro, Javier Martín presenta las principales tecnologías exponenciales que van a tener gran impacto en la sociedad en los próximos años.

    Comprar