Google archivos - Futurizable | Sngular
Enlaces rápidos
  • Blockchain
  • Big Data
  • Educación
  • Robótica
  • Espacio

Currently Viewing Posts Tagged Google

El dilema del innovador

Publicado el 08 junio, 2023

«Acompáñanos en nuestro evento insignia para descubrir en primera persona los últimos anuncios de productos, demos en vivo, casos de éxito de clientes y partners y charlas con líderes de la industria. Tras un año desde la inauguración de nuestros primeros centros de datos en España, nos reunimos de nuevo para explorar juntos los últimos avances en Inteligencia Artificial, Data, Sostenibilidad, Seguridad, Colaboración y mucho más. Todo ello, en un entorno de cine».

Así se presenta el evento Google Cloud Summit que se ha celebrado esta semana en Madrid y donde hemos estado presentes desde SNGULAR como partners de Google, para compartir nuestra experiencia integrando sus soluciones tecnológicas para nuestros clientes. Un evento en el que como te puedes imaginar se ha hablado mucho de Inteligencia Artificial, pero también de cómo seguir evolucionando en el desarrollo de otras tecnologías como el Cloud, que tan importantes han resultado para que ahora estemos adentrándonos en una nueva revolución tecnológica.

El dilema del innovador es un concepto popularizado por Clayton Magleby Christensen a través de un libro con el mismo nombre en el que se explica la dificultad que enfrentan las empresas exitosas cuando tienen que decidir entre seguir enfocándose en sus productos existentes, los cuales han demostrado una gran aceptación por parte de los clientes y le proporcionan unos ingresos significativos, o arriesgarse a innovar y desarrollar nuevos productos que podrían no tener éxito en el futuro.

Lo que estamos viendo ahora mismos respecto a las decisiones que están tomando empresas como Microsoft, Google, Meta, Apple y Amazon es digno de análisis desde la perspectiva del dilema del innovador. Veamos cómo está sucediendo en cada uno de los casos:

  • Microsoft está retomando una parte de su protagonismo perdido en las últimas décadas, sobre todo en lo relativo al negocio B2C, donde no fue capaz de trasladar su éxito en el negocio de la ofimática ni a Internet, tras perder el varapalo al Explorer y a Bing, ni al móvil, donde no ha llegado a tener ningún software de referencia. En ambos casos Google ha sido sobre todo quien le ha quitado protagonismo y por lo que parece ahora se está tomando la venganza al haber logrado en exclusiva la colaboración con OpenAI que tanto recorrido le está aportando a la hora de integrar la Inteligencia Artificial en todas sus plataformas tecnológicas.
  • Google es seguramente quién mejor representa la situación del dilema del innovador, ya que todo el mundo contaba con que era la empresa mejor preparada para la revolución de la Inteligencia Artificial, pero el éxito de ChatGPT parece haber trastocado bastante sus planes al respecto. Sin duda que Google ha sido el pionero a la hora de poner a disposición de los usuarios esta tecnología, por ejemplo con el filtro de spam y el traductor automático, además de otras muchas aplicaciones de uso interno o para el ámbito científico, pero donde el dilema del innovador ha quedado de manifiesto es a la hora de integrarlo dentro de su producto principal: el buscador.
  • Meta por si parte está desarrollando una estrategia bastante sorprendente y que está poniendo de manifiesto su gran capacidad de adaptación. Cuando hace un año su gran apuesta era el metaverso, en muy poco tiempo y seguramente que influenciada por los malos resultados que estaba teniendo en bolsa, ha dado un giro de timón para apostarlo todo por la Inteligencia Artificial, convirtiéndose en una máquina de presentar novedades de herramientas basadas en esta tecnología. Y seguramente lo más interesante de todo es que con el tiempo se verá que esto no está tan alejando del metaverso, ya que muchas de las innovaciones que están desarrollando el ámbito de la Inteligencia Artificial Generativa de imagen y sonido tendrán grandes utilidades relacionadas con la realidad inmersiva.
  • Apple y Amazon, Siri y Alexa, son las grandes incógnitas en estos momentos y cualquier elucubración que podamos hacer puede dejar en evidencia nuestro desconocimiento al respecto de su estrategia real respecto de la Inteligencia Artificial Generativa. Aunque también es cierto que quién más ha quedado en evidencia, respecto a las capacidades de procesamiento y generación de lenguaje natural han sido Siri y Alexa, cuyas respuestas a nuestras preguntas están notablemente rezagadas de las que nos está ofreciendo ahora ChatGPT. El dilema del innovador en el caso de estas empresas puede ser incluso más destacado que en el de Google, porque al menos este ya ha decidido que con Bard y otros desarrollos va a lanzarse a competir en este mercado, pero lo que harán al respecto estos otros gigantes tecnológicos es una incógnita.

¿Y qué ha pasado con IBM? ¿Recuerdas Watson? A veces los pioneros se adelantan a su tiempo y en este caso ha quedado claro que la tecnología detrás de Watson no estaba a la altura de lo que ahora tenemos con los LLM’s basados en transformers. Un ejemplo muy representativo de que muchas veces no basta con querer que las cosas sucedan, sino que también hay que tener la capacidad de hacerlo posible y si esto lo extrapolamos a la situación de competencia entre Google y OpenAI podría darnos pistas al respecto de lo que podría suceder en el futuro.

Entonces, en relación con la estrategia de Google, lo que tenemos claro es su capacidad de disrupción, que comenzó con los buscadores, pero que ha continuado después con los navegadores, el correo electrónico e incluso los sistemas operativos. ¿Podría ocurrir lo mismo con los Chatbots? veamos qué está haciendo al respecto para no quedarse atrás en esta revolución:

  • Desplegar todo su arsenal con Bard, PaLM, LaMDA, aunque con poco éxito por ahora en cuanto a quitarle protagonismo a ChatGPT y sobre todo considerando que los resultados que ofrecen no tienen la calidad que el primero. En todo caso habrá que darle tiempo porque en 6 meses no se pueden sacar conclusiones demasiado relevantes.
  • Invertir en startups es otra opción que usan las grandes empresas que no quieren verse afectadas por el dilema del innovador, ya que podría ocurrir que si Google no es capaz de crear una alternativa que realmente haga la competencia a ChatGPT quizás sí lo haga su startup participada Anthropic que no tiene el lastre de ser una gran empresa y por lo tanto puede arriesgar mucho más, como está haciendo OpenAI.
  • El Intraemprendimiento ha sido otra de las cosas que han funcionado muy bien a Google, con ese famoso 20% del tiempo que los trabajadores de la empresa podían dedicar a sus proyectos personales y que se acabó materializando en un buen número de productos de éxito. Lo que no sabemos aquí es cómo enfoca la empresa ahora este tema y si habrá alguien trabajando en una posible competencia de ChatGPT.
  • Pivotar del negocio de la publicidad al SaaS. Los que dan por muerto a Google en la era de ChatGPT quizás no se plantean que en lugar de pivotar su propuesta de valor, lo que podría hacer es pivotar su modelo de negocio. Así, del mismo modo que las televisiones y los periódicos han sufrido el efecto Google destruyendo su modelo de negocio basado en publicidad, quizás ocurra lo mismo ahora con los Chatbots y Google tenga que despedirse de la vaca lechera de la que ha vivido durante dos décadas para concentrarse ahora en el negocio del software como drive, cloud, chrome, android, …

Tiempos apasionantes y sobre todo donde obtener grandes aprendizajes si estamos atentos a cómo las empresas están tomando decisiones y adaptándose a los cambios que se producen en el mercado.

Etiquetas: , , , ,

3 formas de potenciar el aprendizaje con ChatGPT

Publicado el 15 mayo, 2023

En la era del machine learning, las personas que queramos seguir siendo competitivos frente a las máquinas, tendremos que convertirnos en máquinas de aprender. Cuando realizamos el Observatorio de Aprendizaje de Alto Rendimiento no éramos del todo conscientes del gran impacto que tendría en el corto plazo la Inteligencia Artificial, especialmente los modelos generativos, pero ahora ya tenemos claro que esta debe ser una de nuestras prioridades para el futuro.

Por lo tanto ya no cabe duda de que para desarrollar una estrategia personal de aprendizaje de alto rendimiento debemos incluir el aprovechamiento de estas herramientas, especialmente aquellas que pueden servirnos como copiloto y mentor del aprendizaje, como es el caso de ChatGPT.

La presentación por parte de Alphabet en el evento Google I/O de esta semana de la iniciativa Google Labs y todo el resto de avances que está realizando con Bard, LaMDA y PaLM, además de todas las integraciones que tiene previsto realizar con el buscador, maps, cloud y android, ponen de manifiesto que la carrera con Microsoft por ofrecer las mejores herramientas de Inteligencia Artificial a sus usuarios está en pleno apogeo.

Dicho esto, mientras Google acaba de poner a nuestra disposición las herramientas equivalentes a GPT, veamos otras utilidades que ya sí que están a nuestra disposición para convertirnos en máquinas de aprender gracias a la Inteligencia Artificial.

Usa plantillas en los prompts para obtener mejores resultados

Supongamos que quieres aprender un nuevo idioma o lenguaje de programación, sin duda ChatGPT puede ser una gran compañero para el aprendizaje y no tienes que hacer más que comenzar a interactuar con él para darte cuenta de lo útil que puede resultar. Por ejemplo, dile que diseñe para ti un plan de aprendizaje personalizado en función de tus intereses y circunstancias particulares, tiempo disponible, nivel actual de conocimiento de la materia, nivel al que te gustaría llegar, formas preferidas para aprender, tipos de ejercicios que te gusta realizar, …

Si lo pruebas verás que puedes obtener resultados sorprendentes y que realmente ChatGPT puede convertirse en un mentor para el aprendizaje que te acompañe durante todo el proceso. Pero lo mejor es que esto no puede quedarse así, sino que es posible proporcionar instrucciones mucho más precisas si queremos obtener mejores resultados, por ejemplo podríamos pedirle que cuando actúe como nuestro mentor, lo haga siguiendo el método socrático, que permite fomentar el pensamiento crítico, la auto reflexión y el desarrollo de habilidades argumentativas en lugar de simplemente transmitir información o conocimiento.

También se puede potenciar el aprendizaje si recurrimos a herramientas o técnicas específicas que se han desarrollado a lo largo de la historia para ayudar a los alumnos a aprender mejor, como son por ejemplo los mindmaps que nos ayudan a estructurar la información del tema que queremos aprender, y en este caso ChatGPT nos puede generar el código para posteriormente incrustar en nuestra herramienta online de mapas mentales preferida. También podemos pedirle que genere flashcards sobre los conceptos más importantes que queremos aprender o incluso memorizar, para luego llevarnos esas tarjetas a alguna herramienta digital específica.

Mr.-Ranader te ayudará a tener un aprendizaje más estructurado

Mr.-Ranedeer-AI-Tutor es un buen ejemplo de como estas herramientas, en el momento en el que comienzan a estar a disposición del público, se inicia una carrera por proponer nuevas formas de uso, de las cuales se puede sacar un gran beneficio. De lo que se trata es de un sofisticado Prompt, que al pegarlo en ChatGPT, hace que este comience a actuar de una forma muy precisa de cara a servir como mentor para nuestro aprendizaje. Dicho prompt permite configurar la profundidad con la que se quiere aprender determinado tema, el estilo del aprendizaje, de la comunicación, del tono y del razonamiento. De esta forma no se trata de aprender como un profesor haya decidido que quiere enseñarnos sino que somos nosotros mismos los que configuramos cómo queremos que sea el proceso para poder obtener los mejores resultados.

AutoGPT te ayudará a construir el curso ideal

¿Qué ocurrirá si conectamos 3 GPT para que trabajen colaborativamente entre ellos? Hagamos que el primero genere las tareas, que el segundo las evalúe para decidir cuáles son las más acertadas y que el tercero las ejecute. La verdad es que me parece una genialidad y su creador, Toran Bruce Richards, un gran ejemplo de cómo la creatividad humana es lo que más puede aportar para que la Inteligencia Artificial se convierta en la herramienta que necesitamos para seguir mejorando como sociedad.

En este caso, para mejorar la forma en la que aprendemos, la idea es pedir a AutoGPT, a través de una de sus versiones, como puede ser AgentGPT, que construya el mejor curso posible para que nosotros podamos aprender sobre determinada materia. Cuando la máquina se ponga a trabajar veremos que comienzan a surgir ideas muy interesantes para que nuestro proceso de aprendizaje resulte lo más provechoso posible.


Así que ya sabes, si quieres convertirte en una máquina de aprender, para que las máquinas no te dejen sin trabajo, aquí tienes tres fantásticas herramientas que te ayudarán a potenciar tus experiencias de aprendizaje.

 

Etiquetas: , , , , ,

Oda a las redes neuronales

Publicado el 16 febrero, 2023

Pensando en Sistemas

En el Universo todo son sistemas y lo normal es que estos funcionen porque llegan a una especie de equilibrio, al menos si la vida existe y sobre esa vida se ha llegado a desarrollar inteligencia es porque existe un equilibrio.

  • El equilibrio en el Sistema Solar permite que los planetas giren alrededor del Sol sin chocarse unos con otros y sin precipitarse sobre la estrella que proporciona la energía necesaria para que al menos en la Tierra pueda haber vida.
  • El equilibro del planeta Tierra con la Luna determina el funcionamiento de las mareas y esto a su vez genera un equilibrio con los vientos en la atmósfera, lo cual determina muchos aspectos en el clima que también influyen en la vida.
  • El ahora nuevamente famoso núcleo terrestre incluso tiene una influencia importante en el desarrollo de la vida terrestre gracias al efecto de apantallamiento magnético que nos protege de las radiaciones procedentes del espacio.
  • El equilibro en los ecosistemas terrestres es aún más palpable en nuestra vida y está muy bien representado por la cadena trófica, donde los cambios que se producen en alguna de las especies que habitan la tierra puede afectar a las demás.
  • También el equilibrio existente en el interior y exterior de los seres vivos con las bacterias que lo pueblan es tremendamente relevante para nosotros, hasta el punto que sin ellas no podríamos vivir, ni quizás tampoco ser inteligentes.
  • Finalmente llegamos al equilibro entre la inteligencia humana y la Inteligencia Artificial, que tras millones de años de evolución de la vida es justo el momento en el que nos encontramos ahora y nos hace visualizar un escenario en el que ya existe una Super Inteligencia Artificial o Inteligencia Artificial General si consideramos la combinación del humano y la máquina como un sistema que se retroalimenta. No necesitamos llegar a tener una inteligencia artificial que sea 100% autónoma, lo mejor que puede ocurrir en estos momentos es que lo artificial sea parte de un sistema que trabaja en colaboración con las personas.

Y así es como hemos llegado de nuevo al tema de la Inteligencia Artificial que es a lo que vamos a dedicar este artículo, porque todo lo que está pasando en los últimos meses con las GenAI lo merece y desde Futurizable queremos contribuir a que sea cada vez más conocido y utilizado entre los que cada domingo leéis esta newsletter.

Un recorrido por la historia reciente de las Redes Neuronales

Entender lo que está ocurriendo con la Inteligencia Artificial merece dedicarle algo de tiempo a aprender cómo hemos llegado hasta aquí y cuáles son las principales tecnologías que hacen posible que ahora estemos hablando con ChatGPT como si fuera un humano que nos acompaña en nuestro día a día, para ayudarnos con nuestras actividades habituales, ya sea cuando estamos trabajando, cuando estamos aprendiendo, y sobre todo cuando estamos haciendo ambas cosas a la vez.

Sin tener que remontarnos a la época de Alan Turing y las primeras computadoras, cuando ya se comenzó a hablar de Inteligencia Artificial, es interesante pensar que desde ese momento ya estaba previsto que la tecnología fuera poco a poco replicando las capacidades humanas que solemos asociar con la inteligencia, como son la capacidad de hablar, leer, escribir, reconocer imágenes, resolver problemas matemáticos, jugar a juegos como el ajedrez y sobre todo aprender.

De esta forma los desarrollos en Inteligencia Artificial han seguido durante mucho tiempo dos caminos diferentes, por un lado los sistemas expertos donde se desarrollaban diferentes herramientas de software que estaban programadas para replicar las habilidades humanas pero a base de fuerza bruta, ya que la máquina no se cansa y tiene todo el tiempo del mundo para hacer los cálculos necesarios para replicar de manera matemática lo que un humano hace, por ejemplo cuando juega a las damas, que es uno de los primeros juegos donde se puso a prueba esta tecnología en la década de los 50.

Desde entonces hemos vivido diferentes periodos de auge y caída de las expectativas al respecto de las posibilidades que podría ofrecernos la Inteligencia Artificial, lo cual no ha hecho que en todo este tiempo los científicos declinaran en su afán por avanzar en el desarrollo de esta tecnología, como queda de manifiesto en la siguiente cronografía que debería servirnos para hacernos una idea de dónde estamos y cómo hemos llegado hasta aquí.

  • Las primeras redes neuronales artificiales fueron desarrolladas en 1943 por el neurofisiólogo Warren McCulloch y el matemático Walter Pitts. Sin esta invención sería imposible haber experimentado el gran avance de la Inteligencia Artificial en los últimos años, gracias a la genialidad de replicar la inteligencia a través de sus elementos fundacionales, las neuronas.
  • La neuronal artificial perceptrón desarrollado en 1957 por Frank Rosenblatt fue otro de los pilares fundamentales de esta tecnología y ofrecía la utilidad de resolver problemas de clasificación binaria, determinando si un objeto dado pertenecía a una de dos categorías.
  • El siguiente paso era conectar las neuronas artificiales entre sí, porque esto es lo que se considera como base para la inteligencia, no solo que tengamos neuronas sino como estás se conectan e interactúan formando un sistema, lo cual es la razón por la que hablamos de redes neuronales y no solo de neuronas. Y esto sucedió en la década de los 60 gracias a Georgiy Ivakhnenko y Vladimir Lapa con el desarrollo de redes neuronales que realizaban tareas como la identificación de sistemas y la predicción de series temporales. Estas redes neuronales se caracterizaban por su capacidad para realizar ajustes finos y por su estructura en cascada, lo que permitía que la información fluyera de una capa a otra; también por su capacidad para aprender a partir de datos y para generalizar a nuevos datos.
  • Y así es como llegamos al aprendizaje automático, o machine learning, que como os podéis imaginar es en lo que se basa todo lo que ha venido después y que ahora denominamos como deep learning, como una representación de que si las máquinas aprenden es gracias a la estructura de capas de redes neuronales apiladas unas sobre otras.
  • Después tuvieron que pasar un par de décadas (el invierno de la Inteligencia Artificial), en concreto llegar a los años 80 y 90 para que se produjera un nuevo gran avance en esta tecnología, con la invención de las redes neuronales convolucionales, propuestas por Kunihiko Fukushima en 1980 a través del concepto de Neocognitron, que ​más tarde fue mejorado por Yann LeCun en 1998​ al introducir un método de aprendizaje basado en la propagación hacia atrás para poder entrenar el sistema correctamente.
  • Este diseño de redes neuronales convolucionales fue refinado en 2012 por Dan Ciresan y en este momento es cuando se produce el gran punto de inflexión en esta tecnología, gracias a su utilidad para el procesamiento de imágenes. Precisamente en 2012 esta arquitectura de redes neuronales logró una gran notoriedad por usarse para vencer en la competición ImageNet organizada por las universidades Stanford y Princeton, para fomentar el desarrollo de los sistemas de clasificación de imágenes basados en Inteligencia Artificial.
  • También en 2012 Geoffrey Hinton y George Dahl, usaron redes neuronales profundas para ganar una competencia organizada por Merck en la plataforma Kaggle, que era utilizada por una gran cantidad de científicos de datos y expertos en Inteligencia Artificial para poner a prueba sus modelos de aprendizaje automático.
  • En paralelo al desarrollo de las redes neuronales convolucionales encontramos las redes neuronales recurrentes que se basan en el trabajo de David Rumelhart en 1986. Estas se utilizan para procesar secuencias de datos, como texto, audio o vídeo, es decir, para el procesamiento del lenguaje natural. En lugar de procesar cada entrada independientemente, mantienen un estado oculto que se actualiza a medida que se procesan las entradas sucesivas en la secuencia, lo cual les permite tener en cuenta la información anterior y procesar la secuencia completa para producir una salida.
  • Fue en 2014 donde vimos como todo comenzaba a acelerarse y donde nos encontramos con las redes neuronales generativas antagónicas, las famosas GANs, desarrolladas por Ian Goodfellow. Estas redes están formadas por dos partes, un generador y un discriminador, donde a través de un proceso iterativo, el generador aprende a crear datos cada vez más convincentes y el discriminador aprende a ser más efectivo en la detección de datos falsos, lo cual ha tenido un recorrido enorme en los últimos años para la generación de imágenes.
  • En 2015 Google libera Tensor Flow, la librería de software gratuita y de código abierto para el aprendizaje automático y la inteligencia artificial, que puede ser usada en una variedad de tareas, pero que tiene un enfoque particular en el entrenamiento y la inferencia de redes neuronales profundas. A raíz de esta iniciativa multitud de personas se lanzan a la aventura de aprender sobre Inteligencia Artificial lo cual acelera considerablemente el desarrollo de esta tecnología.
  • Y entonces llegó el año 2016 donde la Inteligencia Artificial ocupó todas las portadas gracias al desarrollo de AlphaGo por parte de DeepMind, al ganar al campeón del mundo del juego de mesa de Go, gracias a un desarrollo en el que confluían tecnologías de aprendizaje automático combinadas con un de árbol del decisión del tipo búsqueda Monte Carlo. Llegados a este punto vale la pena mencionar que en aprendizaje automático a demás de las redes neuronales artificiales tenemos otros algoritmos como son los árboles de decisiones, las reglas de asociación, los algoritmos genéticos, las máquinas de vectores de soporte, los algoritmos de agrupamiento y las redes bayesianas.
  • Finalmente vamos a detenernos en este viaje en el año 2017 con la publicación del paper Attention Is All You Need donde se presentan los transformers como un nuevo tipo de red neuronal que viene a mejorar a las convolucionales y a las recurrentes, proponiendo una estructura secuencial que procesa la información en forma de secuencia, como ocurre en una frase o un documento, en lugar de procesar la información en una estructura de grid, como en una red neuronal convencional. Para ello se utiliza el concepto de atención, que permite a la red considerar la importancia de diferentes partes de la secuencia al realizar tareas como la traducción automática o la clasificación de texto. La atención permite a la red aprender a enfocarse en las partes relevantes de la secuencia y desechar aquellas que no son importantes.

Nomenclatura para entender el funcionamiento de las redes neuronales

Para sacar provecho de la Inteligencia Artificial Generativa no es necesario conocer en profundidad el funcionamiento del Deep Learning ni de las redes neuronales que lo soportan, pero como muchas veces al hablar de esta tecnología se menciona el tipo de red neuronal en el que está basado y alguna característica específica de su arquitectura, puede ser interesante conocer algunos de los términos más habituales.

  • Neuronas artificiales: son las unidades básicas de una red neuronal y se encargan de procesar y transmitir la información.
  • Entrada: son las características o variables que se utilizan como entrada de información en la red neuronal.
  • Capas: una red neuronal puede estar compuesta por una o más capas de neuronas. Las capas de entrada contienen las neuronas que reciben las señales de entrada, mientras que las capas intermedias, también llamadas ocultas, y la capa de salida contienen las neuronas que procesan y generan la señal de salida.
  • Pesos: cada entrada de una neurona está asociada a un peso que controla la influencia de esa entrada en la salida de la neurona. Los pesos se ajustan durante el proceso de aprendizaje de la red neuronal.
  • Sesgos: son parámetros adicionales que se incluyen como una corrección que se aplica a la entrada de una neurona antes de que se calcule su salida, lo cual se utiliza para desplazar la función de activación de una neurona hacia arriba o hacia abajo, lo que permite ajustar la salida de la neurona de forma independiente de sus entradas
  • Función de activación: es una función matemática que se aplica a la suma ponderada de las entradas para producir la salida de la neurona. La función de activación introduce no linealidad en la red neuronal, lo que permite a la red modelar una gran variedad de relaciones complejas entre las entradas y las salidas.
  • Propagación hacia adelante: es el proceso de calcular la salida de la red neuronal a partir de las entradas y los pesos. La señal de entrada se propaga a través de las capas de la red neuronal hasta la capa de salida.
  • Función de costo o pérdida: es una medida de la diferencia entre la salida deseada y la salida real de la red neuronal. Se utiliza para evaluar el rendimiento de la red y para guiar el proceso de aprendizaje.
  • Optimizador: es un algoritmo que se utiliza en el entrenamiento de redes neuronales para mejorar sus capacidades predictivas con el objetivo de encontrar los mejores pesos y sesgos de las redes neuronales de manera que puedan producir las predicciones más precisas posibles.
  • Propagación hacia atrás: es el proceso de ajustar los pesos de la red neuronal en función de la función de costo y de la propagación hacia adelante. Se trata de un algoritmo de optimización que permite a la red neuronal aprender a partir de los datos de entrenamiento.
  • Entrenamiento: el entrenamiento es el proceso de ajuste de los pesos y los sesgos de las conexiones entre las neuronas artificiales en una red neuronal con el fin de optimizar su capacidad para realizar tareas específicas. La idea detrás del entrenamiento es que la red neuronal debe ser capaz de aprender de los datos de entrada y producir una salida correcta para una determinada tarea. Esto se lleva a cabo a través del uso de un conjunto de datos de entrenamiento, que consiste en pares de entrada y salida deseada. La red neuronal ajusta sus pesos y sesgos en base a la comparación entre su salida actual y la salida deseada para cada ejemplo en el conjunto de datos de entrenamiento. Este proceso se repite varias veces hasta que la red neuronal alcance un nivel aceptable de precisión en la realización de la tarea deseada. Así el éxito del entrenamiento depende de factores como la calidad y cantidad de los datos de entrenamiento, la estructura de la red neuronal, la elección de la función de pérdida y la optimización del proceso de entrenamiento.
  • Aprendizaje supervisado: es un tipo de aprendizaje automático en el que se utiliza un conjunto de datos etiquetados para entrenar un modelo de aprendizaje, donde se proporciona una entrada y una etiqueta deseada para cada ejemplo en el conjunto de datos, y el objetivo es que el modelo aprenda a producir la etiqueta correcta para nuevas entradas en base a los patrones de asociación encontrados en los datos de entrenamiento.
  • Aprendizaje no supervisado: es otro tipo de aprendizaje automático en el que en esta ocasión se utiliza un conjunto de datos sin etiquetar para entrenar el modelo, por lo tanto, ya que no se proporciona una etiqueta deseada para cada ejemplo en el conjunto de datos, el objetivo es que el modelo descubra patrones y estructuras ocultos en los datos, como son las agrupaciones y las asociaciones.
  • Aprendizaje por refuerzo: es un tipo de aprendizaje automático en el que un algoritmo aprende a tomar acciones en un entorno con el objetivo de maximizar una recompensa o refuerzo, de esta forma experimenta con diferentes acciones y recibe recompensas o penalizaciones en función de sus acciones. A partir de estas experiencias, el algoritmo ajusta su comportamiento para maximizar la recompensa en el futuro.
  • Finetuning:  consisten en utilizar una red neuronal que ya ha aprendido algunas características útiles para realizar una tarea en particular, pero ahora queremos aplicar esa red neuronal a un nuevo problema. Para ello se aprovechan los pesos y sesgos aprendidos previamente y se adaptan a un nuevo problema específico. Este proceso implica congelar los pesos y sesgos de una parte de la red neuronal preentrenada y continuar el entrenamiento solo en la parte restante de la red. Esto se hace porque se asume que la parte preentrenada de la red ya ha aprendido características generales útiles en un problema similar, y que estas características se pueden transferir y ajustar al nuevo problema. Esta técnica se utiliza cuando no hay suficientes datos disponibles para entrenar una red neuronal desde cero, o cuando se desea aprovechar las capacidades de aprendizaje de una red neuronal preentrenada.
  • Gran modelo de lenguaje: es un modelo de aprendizaje profundo que ha sido entrenado en un gran corpus de texto con el objetivo de comprender y generar lenguaje humano. Estos modelos utilizan técnicas de aprendizaje automático y procesamiento del lenguaje natural para desarrollar una comprensión profunda del significado del lenguaje y cómo se relaciona con otros conceptos. Los grandes modelos de lenguaje se utilizan en una variedad de tareas, incluyendo la traducción automática, la generación de texto, la respuesta a preguntas, la clasificación de texto, la búsqueda en internet, la asistencia virtual y la automatización de chats.

Y aquí es donde acaba la historia que os queríamos contar hoy, porque un gran modelo de lenguaje es precisamente lo que ha creado la empresa OpenAI a través de GPT-3 y su versión para conversar con humanos ChatGPT.

La respuesta de Google al huracán ChatGPT

Bueno, quizás mejor no terminamos aún, porque están pasando tantas cosas en este sector de la Inteligencia Artificial que vale la pena hacer un bonus para fijarnos en la respuesta que está dando o quiere dar Google a las diferentes iniciativas emprendidas por OpenAI y su socio Microsoft. Ya que tras la integración de GPT en Bing y otras herramientas como Teams, parece que no queda mucho para que Google haga lo propio con su buscador, con la presentación de Bard, que está basado en el modelo de lenguaje para aplicaciones de diálogo LaMDA

Además recientemente Google ha invertido 300 millones de dólares en la startup Anthropic, lo cual nos lleva a recordar que en este juego no solo participan las grandes empresas tecnológicas, sino que se está desarrollando un ecosistema increíble de nuevas empresas, algunas de las cuales muestran un futuro enormemente prometedor, como es el caso de Perplexity, que es una de las más avanzadas en este campo de los chats basados en Inteligencia Artificial Generativa.

Y ahora sí, para terminar, os dejamos algunos recursos para seguir aprendiendo sobre este apasionante tema, hasta la semana que viene que volveremos en Futurizable con más contenidos sobre GenAI.

  • Third Oasis: es un directorio de aplicaciones basadas en Inteligencia Artificial Generativa.
  • Dot CSV: probablemente el mejor canal de Youtube de divulgación sobre Inteligencia Artificial.
  • Monos Estocásticos: un nuevo podcast dedicado relatar toda la actualidad de este sector.

Etiquetas: , , , , , ,

Futurizable OKR Edition #68

Publicado el 10 diciembre, 2021

Escucha la entrevista a Anton Astray en el podcast OKR Day

Anton Astray es de los profesionales que mejor conoce OKR en España ya que lo ha trabajado en un buen número de empresas, empezando por Google, donde lo aprendió y luego lo ha implantado en otras empresas.

Para Anton lo más importante de los OKR es que se enfocan en los resultados, realmente en el Outcome, ya que muchas veces nos enfocamos en las tareas o los proyectos, pero no vamos más allá.

Sin duda vale la pena escuchar esta entrevista en la que nos daremos cuenta de que debemos poner lo importante por delante y para ello poder contar con una herramienta como OKR resulta fundamental.

La semana que viene tenemos el último curso de OKR Champion de 2021

La semana que viene tendremos el último curso de OKR Champion de 2021 así que esta es la última oportunidad del año para convertirte en OKR Champion. Será los días 14, 15 y 16 con horario de 18 a 20h.

Con este serán 18 las ediciones del curso de OKR Champion que realizamos de forma abierta para profesionales que quieren aprender la metodología y ponerla en práctica en sus organizaciones. Además en los dos últimos años hemos hecho otro montón de cursos para empresas, lo cual nos está permitiendo aprender un montón sobre la implantación de OKR, más allá de la que hemos hecho en nuestra propia empresa.

Y como novedad a partir ahora, todos los alumnos de OKR Champion podrán participar en nuestra comunidad de aprendizaje OKR Lab y de esta forma seguir aprendiendo sobre ello, además de aprender de otras personas que también lo están poniendo en práctica.

Etiquetas: , , , ,

Futurizable OKR Edition #63 – La métrica de la estrella del norte

Publicado el 05 noviembre, 2021

OKR es como una ensalada, puedes echarle casi cualquier ingrediente que quedará bien: fruta, flores… cosas que antes parecían raras pero que siempre que aporten valor puede tener sentido para la combinación. Con OKR también podemos hacer todo tipo de mezclas, de hecho ya hemos hablado en otras ocasiones por aquí por ejemplo de la combinación con Scrum y con EFQM.

En este sentido hoy queríamos hablar de la métrica de la Estrella del Norte, algo que no consideramos habitualmente en el marco del sistema OKR pero que sí que puede tener una buena combinación, especialmente para aquellas empresas que quieren tener siempre presente una cifra o un dato que represente muy bien el avance que se está logrando a la hora de aplicar la gestión por objetivos u otro tipo de estrategias.

La clave será elegir bien esa métrica y que sea suficientemente representativa de lo que la empresa quiere lograr. Por ejemplo en los OKR de Google que aparecen en el libro Mide lo que Importa hay un resultado clave que bien podría servir como Estrella del Norte, que es «Youtube alcanza mil millones de horas de visionado diarias» ya que la empresa tardó varios años en lograrlo y realmente se convirtió en algo que guió al equipo durante todo ese tiempo.

En este artículo North Star Metric — Measure the Right Thing, Sebastian Straube nos ofrece una definición de la métrica estrella del norte y un ejemplo de la que podría ser para Netflix: «tiempo dedicado por los usuarios en ver contenido en streaming».

La métrica North Star debe proporcionar evidencia de una relación clara y directa entre el problema de su producto y el grado en que lo está resolviendo para su mercado objetivo.

Y ahora, ¿has pensado cuál podría ser la métrica de la estrella del norte de tu empresa o de tu trabajo? a mi me gustaría encontrar un número que represente el valor que estamos aportando con nuestro producto para resolver un problema que tienen nuestros clientes, huyendo de las métricas vanidosas que realmente no reflejan valor aportado sino actividad generada, y sin caer en el error de intentar medirlo todo, pero sin entender realmente lo que puede aportarnos ese dato.

Próximo curso de OKR Champion

Ya puedes apuntarte a nuestro próximo curso de OKR Champion que vamos a realizar los días 23, 24 y 25 de noviembre con horario de 17 a 19h y de forma online.

El curso consta de los siguientes contenidos:

  • Aprende a diseñar tus propios OKR y los de tu empresa
  • Entiende qué es CFR y la importancia del seguimiento de los Objetivos
  • Nociones básicas de implantación de OKR en una empresa
  • Cómo convertirte en OKR Champion
  • Herramientas de software para gestión de los OKR

Etiquetas: , , , , ,

Futurizable OKR Edition #47

Publicado el 14 mayo, 2021

La paradoja de Sorites

La palabra «sorites» significa, en griego antiguo, «montón» y la Paradoja de Sorites se refiere a cómo percibimos (o somos incapaces de percibir) la erosión en el tiempo de un montón de arena al que se le quita un grano después de otro. Cuando quitamos un grano, la diferencia que hace es tan microscópicamente pequeña que se considera insignificante para el que percibe. Si comparas las dos fotos más abajo, creo que sería razonable decir que aunque el montón de la derecha tiene un grano menos que el de la izquierda, la diferencia es, efectivamente, insignificante. Podría tratarse de dos fotos del mismo montón. Pero a pesar de que la merma de un solo grano es insignificante, el montón puede ir reduciéndose lentamente con el tiempo, grano a grano, hasta paradójicamente desaparecer por completo. Paradójicamente porque, como acabamos de ver, en ningún momento cambia tu visión por el hecho de quitar solo un grano; no te das cuenta en ningún momento de que el montón de arena se va reduciendo. El factor importante aquí es la sutileza.

La Paradoja de Sorites es un ejemplo de cómo un cambio insignificante da lugar a resultados sorprendentes y significativos. Este es el quid de la cuestión. Los cambios pueden producirse y a menudo se producen tan lentamente y de manera tan sutil que no nos damos cuenta en absoluto de ello.

El Principio de Sorites: La realización constante de acciones insignificantes, correctamente enfocadas, lleva inevitablemente a resultados significativos y espectaculares.

¿Qué te sugiere esto de la paradoja de sorites y el principio de sorites en relación con los OKR? A mí, que la clave del éxito en la implantación de los OKR en una organización está en la perseverancia. ¿Alguien piensa que en Google el primer año que empezaron a usar los OKR estaban todo el día diciendo lo bien que les estaba funcionando? Ahora si echan la vista atrás pueden comprobar todo el beneficio que han obtenido de este sistema de gestión por objetivos, que les ayuda a poner el foco en el corto plazo y realizar pequeñas acciones en la búsqueda de un propósito en el largo plazo.

Nuevo episodio del Podcast OKR Day

Tenemos un nuevo episodio del Podcast OKR Day, en esta ocasión en forma de entrevista.

Entrevistamos a Eduardo Liviano, que es responsable de Growth en la empresa Lola Market, donde está aplicando OKR para la gestión de su equipo y el alineamiento con el resto de equipos de la compañía. Además como emprendedor ha aplicado también OKR en su startup ApetEat.

Eduardo nos explica en este podcast cómo trabajan en su empresa con OKR y el beneficio que esto les reporta, especialmente en lo que se refiere al equipo, que tienen los OKR como guía de lo que es prioritario en cada momento.

Etiquetas: , , ,

Futurizable OKR Edition #8

Publicado el 26 junio, 2020

Empieza por el porqué

El libro de Simon Sinek nos da pie a tratar en esta newsletter sobre la importancia del propósito a la hora de desarrollar una estrategia empresarial basada en el sistema OKR.

Tanto a nivel personal, como a nivel empresarial, cuando empezamos a trabajar con OKR vale la pena hacer un ejercicio inicial de reflexión al respecto de por qué queremos usar la metodología y cómo puede ayudarnos a lograr nuestro propósito. El problema puede ser que ese propósito no esté definido y que por lo tanto la base sobre la que vamos a construir nuestra estrategia no sea sólida, lo cual puede llevarnos a situaciones de indefinición y falta de motivación por parte de aquellos que tienen que implementar dicha estrategia.

En ocasiones, como ha ocurrido en el caso de Sngular, lo que puede pasar es que exista un propósito pero no se haya puesto por escrito aún la forma de materializarlo a través de una estrategia, para lo cual OKR puede resultar de especial utilidad, ya que está muy bien estructurada la forma de definir objetivos en base a un propósito inicial y sobre todo porque gracias a los CFR se involucra a todas las personas con esa estrategia.

De esta forma, el propósito de Sngular que se expresa a través de la frase «No sabemos qué seremos dentro de 10 años, pero sí sabemos cómo seremos» se ha podido plasmar a través de una estrategia enfocada en los resultados gracias a OKR. Porque esta frase abstracta, que incluso parece un trabalenguas, lo que quiere transmitir es que lo importante para la empresa son los valores de las personas que la conforman, el por qué hacen las cosas y no tanto lo que hacen o cómo lo hacen. Luego la forma de llevarlo a la práctica a través de los OKR ha sido por medio de tres Objetivos que están enfocados en lograr que Sngular sea un lugar ideal para trabajar, que logremos los proyectos técnicos más retadores para el mejor talento y que podamos asegurar la excelencia del trabajo de nuestros clientes para maximizar su satisfacción. De esta forma se articula muy bien una estrategia en la que para atraer al mejor talento a la empresa tenemos que contar con los mejores proyectos en los que trabajar y para esto es necesario que el trabajo que realicemos sea excelente. Por lo tanto podemos concluir que ahora gracias a OKR en Sngular contamos con una estrategia mejor definida que hace que el propósito se materialice a través de objetivos concretos a lograr y resultados clave que verifican que estamos logrando lo que nos proponemos.

La importancia de contar con un propósito

Por qué las organizaciones deberían tener un propósito: los estudios muestran que solo 4 de cada 10 organizaciones tienen un propósito claro. Sin embargo, en torno al 90% de los ejecutivos creen que tener un propósito claro contribuye a mejorar el negocio, la marca, crear una gran cultura con grandes valores y, al final, lograr la satisfacción de los empleados. Las cifras de crecimiento de los ingresos a lo largo del tiempo corroboran estas creencias: las empresas que priorizan el propósito crecen más rápido que las que no lo hacen y es más probable que esas compañías se transformen efectivamente con el tiempo.

Cada vez son más las metodologías de gestión empresarial que proponen las necesidad de contar con un propósito de cara a lograr el éxito de los negocios, algunas de ellas lo plantean como un punto de partida y otras como un objetivo a alcanzar. A continuación puedes conocer las razones que exponen algunas de estas metodologías, especialmente aquellas que han sido plasmadas a través de un libro, sobre la necesidad de contar con un propósito en las empresas.

Las Organizaciones Exponenciales, casi por definición, piensan en grande. Hay una buena razón para ello: si la compañía piensa en pequeño, es improbable que siga una estrategia empresarial que obtenga un crecimiento rápido. Incluso si la compañía de alguna manera consigue obtener un nivel de crecimiento impresionante, la escala de su negocio sobrepasará el modelo de negocio de la empresa, dejándola perdida y sin rumbo. Por ello, las ExO deben apuntar alto. Este es el motivo por el que, cuando leemos los posicionamientos de las Organizaciones Exponenciales existentes, encontramos declaraciones de intenciones que podrían resultar escandalosas hace unos años, ninguna dice lo que la organización hace, sino más bien lo que aspira a conseguir.

  • Google: Organizar la información mundial.
  • TED: Ideas dignas de difundir.
  • X Prize: Conseguir avances radicales para beneficio de la humanidad.
  • Quirky: Haz la invención accesible.
  • Singularity University: Impactar positivamente en mil millones de personas.

Reinventar las organizaciones. Las organizaciones teal destacan por contar con un propósito evolutivo y así lo explican algunos de los que han servido de inspiración: La vida desea avanzar. Es imposible detenerla. Cada vez que queremos intentar contenerla o interferir con su necesidad fundamental de expresarse, nos buscamos problemas… Si queremos formar equipo con la vida y trabajar alineados con sus movimientos, debemos tomarnos su rumbo en serio. La vida se mueve hacia la plenitud. No podemos ignorar este rumbo ni tomarlo a la ligera. La gente no responde durante mucho tiempo a los propósitos pequeños y autocentrados o a un trabajo que se hace mucho autobombo. Hay demasiadas organizaciones que le piden a la gente que lleve a cabo un trabajo hueco, que se entusiasme con visiones surgidas de una mente estrecha, que se comprometa con propósitos egoístas, que ponga su energía en impulsos egocéntricos… Rechazar estas iniciativas, retirarles nuestra energía, es un signo de nuestro compromiso con la vida y con los demás.

Mide lo que importa: los OKR nos ofrecen el propósito y la claridad que necesitamos para adentrarnos en el desafiante terreno del cambio hacia la adquisición de una cultura nueva. Los CFR proporcionan la energía necesaria para ese viaje. Un entorno en el que las personas mantienen conversaciones auténticas, reciben un feedback constructivo y obtienen reconocimiento cuando han alcanzado metas exigentes hace que el entusiasmo sea contagioso. Lo mismo sucede con el pensamiento expansivo y el compromiso con la mejora diaria. Las empresas que reconocen a sus empleados como aliados valiosos son las que ofrecen un servicio más óptimo al cliente, las que cuentan con los mejores productos y un crecimiento por ventas más potente. Y serán estas las que triunfen.

Propósito, sentido y pasión: el propósito de tu liderazgo es lo que te define y te hace único. Tanto si acabas de empezar en una empresa emergente como si eres el CEO de una de las empresas destacadas de Fortune 500, tu propósito es lo que define tu marca, la meta que pretendes alcanzar, la magia que te empuja hacia delante. En realidad no se trata de lo que haces, sino cómo lo haces y por qué, los anhelos y las pasiones que te llevan a formar parte de las mesas de negociaciones que hagan falta. Aunque puedes expresar tu propósito de muchas formas, tu propósito es lo que más gente cercana es capaz de reconocerte como único y lo que probablemente echarían de menos si desapareciera.

Ikigai: según los japoneses, todo el mundo tiene un ikigai, un motivo para existir. Algunos lo han encontrado y son conscientes de su ikigai, otros lo llevan dentro, pero todavía lo están buscando. El Ikigai está escondido en nuestro interior y requiere una exploración paciente para llegar a lo más profundo de nuestro ser y encontrarlo. Según los habitantes de Okinawa, la isla con mayor índice de centenarios del mundo, el Ikigai es la razón por la que nos levantamos por la mañana. El Ikigai es uno de los secretos para una vida larga, joven y feliz como la que llevan los habitantes de Okinawa. Tener un ikigai claro y definido, una gran pasión, es algo que da satisfacción, felicidad y significado a la vida.

Para saber más sobre la importancia del propósito en las organizaciones puedes leer el informe Porpuse at Work realizado por Linkedin e Imperative.

«Las empresas que entienden el creciente énfasis de propósito en el profesional de hoy mejoran su capacidad para atraer a empleados y también su capacidad para fidelizarlos por períodos más largos de tiempo». Reid Hoffman, fundador de Linkedin

Próximos cursos de OKR Champion

Con la llegada del verano nos encontramos en un momento ideal para potenciar nuestra formación de cara a volver el próximo curso con un nuevo impulso que nos ayude a crecer en nuestro trabajo y mejorar en nuestras empresas. Por esto queremos recomendarte formarte como OKR Champion, ya que te ayudará a mejorar tu posicionamiento a nivel profesional y mejorar la aportación que realizas para lograr el éxito de tu empresa.

La próxima convocatoria del curso de OKR Champion certificado por Sngular tendrá lugar los días 29 y 30 de junio y 1 de julio de 17 a 19h. Se trata de un curso online de 6 horas de duración en el que podrás aprender cómo se diseñan los OKR, en qué consiste la función del OKR Champion y cómo realizar la implantación de los OKR dentro de una empresa.

Próximo evento de OKR Day

Continuamos con nuestra labor divulgadora sobre los distintos aspectos que conforman la metodología OKR y en la próxima edición del evento OKR Day queremos debatir sobre cómo esta metodología puede ser aprovechada por los equipos de alto rendimiento dedicados al desarrollo tecnológico.

La próxima edición del OKR Day será el 7 de julio a las 18h y puedes apuntarte aquí. En el evento contaremos como ponentes con Francisco José Domínguez que es Profesor Titular en la Universidad de Sevilla, Javier Rosado que es Agile Consultant en Telefonica y Francisco Moreno que es QA Area Leader en Sngular.

Etiquetas: , , , , ,

Futurizable OKR Edition #5

Publicado el 05 junio, 2020

Celebra todos los momentos positivos, por pequeños que sean

De lo más recomendable este artículo de Matthew Rivard, Head of Strategy & Product Acceleration Google Canada, al respecto de cómo las empresas pueden aprovechar esta crisis para crear una normalidad mejor, en la que pensemos más sobre lo que necesitan los consumidores y cómo podemos adaptarnos a sus necesidades.

Para ello comienza proponiendo que usemos OKR como herramienta que puede aportarnos un gran valor para construir la estrategia que nos ayude a adaptarnos a esta situación y salir fortalecidos de ella:

Este año se cumplen 20 años desde que empezamos a usar OKRs en Google. Los OKR son objetivos y resultados clave. Los objetivos son metas tangibles y alcanzables dentro de un marco temporal cuantificable, y los resultados clave deben describir logros claros en lugar de actividades. En Google, los OKR siguen siendo una herramienta verdaderamente útil durante esta situación impredecible, ya que nos ayudan a definir plazos revisados de forma clara, cambiar nuestras prioridades y, en este momento, adaptarnos al cambio siempre que sea necesario. Para fijarte objetivos claros y cuantificables, debes retarte a ti y a tus equipos a identificar posibles cambios en el comportamiento que podrían dar lugar a nichos que tus productos y servicios pueden cubrir.

Sinergias entre OKR y SAFe

Cada vez nos encontramos más conversaciones al respecto de las sinergias existentes entre OKR y otras metodologías de gestión de proyectos, productividad, desarrollo de software, …, en las que también se tienen que definir objetivos y los indicadores que permiten verificar dichos objetivos. Lo que ocurre es que cada metodología utiliza sus propios criterios e incluso en muchas ocasiones esos criterios de medición ni siquiera están definidos, por lo que es necesario hacer aquí un trabajo de definición por parte de aquellas personas encargadas de aplicar la metodología.

En el caso de la metodología Scaled Agile Framework Enterprise explican que cuando se realiza la planificación de los incrementos de programa es cuando hay que definir los objetivos que se quieren alcanzar y para ello proponen los siguientes criterios:

Los objetivos de Incremento de programa son un resumen de los objetivos comerciales y técnicos que un Equipo intenta alcanzar en el próximo Incremento de programa. Durante la planificación del Incremento de programa , los equipos crean los objetivos, que son las cosas que pretenden lograr en ese periodo. Esto proporciona varios beneficios:

  • Proporcionar un lenguaje común para comunicarse con las partes interesadas de negocios y tecnología.
  • Crea el enfoque y la visión a corto plazo.
  • Permite al equipo evaluar su desempeño y el valor comercial alcanzado a través de la medida de previsibilidad del programa.
  • Comunica y destaca la contribución de cada equipo al valor comercial.
  • Expone dependencias que requieren coordinación.

En próximas ediciones de esta newsletter iremos compartiendo la visión de las diferentes metodologías al respecto de cómo definir objetivos y las métricas que permitan verificarlos.

Nueva edición del OKR Day dedicada a tratar las sinergias con QA

OKR y QA, cómo encontrarse en el camino es el título del próximo evento OKR Day en el que os invitamos a participar. Se trata de la octava edición de este evento dedicado a compartir experiencias y conocimiento sobre la metodología OKR. Los eventos anteriores los podéis ver en el canal de Youtube de Sngular y pueden ser un buen recopilatorio de conocimiento para todos aquellos que queráis ampliar vuestra visión sobre el tema.

8ª Convocatoria del curso de OKR Champion certificado por Sngular

Los días 29, 30 de junio y 1 de julio tendrá lugar la 8ª convocatoria del Curso de OKR Champion certificado por Sngular. Para nosotros está siendo una gran experiencia poder formar a tantos profesionales interesados en aplicar la metodología OKR en sus empresas. Además estamos aprovechando este tiempo de auge de la formación online para realizar cursos a medida para empresas, donde podemos personalizar sobre todo la parte práctica de cómo utilizar OKR para diseñar la estrategia de la organización y cómo realizar la implantación de esta metodología, algo que es poco conocido hasta el momento ya que no existe mucha información pública al respecto.

Etiquetas: , , ,

Datanomía: la historia de Shiru y su café patrocinado

Publicado el 05 septiembre, 2019

Shiru Cafe es una marca de cafeterías que se ha especializado en ofrecer café gratis a los estudiantes que les proporcionen datos que resulten de interés para las empresas patrocinadoras. Por lo tanto, lo que ha hecho esta empresa es trasladar a los negocios del mundo real el modelo de negocio más exitoso hasta la fecha en Internet: ofrecer un servicio de forma gratuita a los usuarios, al tiempo que éstos proporcionan a la empresa información que puede monetizar a través de publicidad que compran otras empresas.

La historia de Shiru y su café patrocinado bien podría servir como un punto de inflexión respecto a cómo se gestionan los negocios basados en los datos. Realmente resulta curioso que usemos como ejemplo una empresa offline para explicar la idea de que estamos llegando a un punto en el que la gente ya no quiera ceder sus datos a las empresas digitales que les ofrecen productos o servicios de forma gratuita.

«El mayor problema político, legal y filosófico de nuestra época es cómo regular la propiedad de los datos. En el pasado, delimitar la propiedad de la tierra fue fácil: se ponía una valla y se escribía en un papel el nombre del dueño. Cuando surgió la industria moderna, hubo que regular la propiedad de las máquinas. Y se consiguió. Pero, ¿los datos?. Están en todas partes y en ninguna. Puedo tener una copia de mi historial médico, pero eso no significa que yo sea el propietario de esos datos, porque puede haber millones de copias. Necesitamos un sistema diferente. ¿Cuál?. No lo sé. Otra pregunta clave es «cómo conseguir una mayor cooperación internacional». Yuval Noah Harari

El modelo de negocio de los datos en la actualidad

Las 5 empresas más valiosas del mundo tienen modelos de negocio digitales, no exclusivamente basados en los datos, pero sí que son todas empresas de software y hardware que desarrollan una gran actividad en la generación y procesamiento de información en forma de datos, especialmente Google y Facebook, aunque cada vez más también Microsoft con su apuesta por el Cloud y Amazon con su apuesta por los asistentes virtuales basados en Inteligencia Artificial.

Si pensamos en cómo rentabilizan su actividad las empresas denominadas GAFA (Google, Apple, Facebook y Amazon), entendemos por qué se dice que el nuevo oro son los datos y que los datos son el combustible que hace que se mueva la maquinaria de una nueva revolución industrial, la 4.0

Más allá de estas analogías lo que está claro es que en los últimos 20 años hemos visto surgir uno de los modelos de negocio más rentable de la historia: las plataformas digitales que rentabilizan sus audiencias a través de la publicidad.

Google con su publicidad contextual inventó un modelo de negocio basado en saber lo que hacemos cuando buscamos información en Internet, cuando navegamos, cuando nos comunicamos por correo electrónico, cuando trabajamos con herramientas de ofimática online, cuando viajamos ayudados por el GPS, … así hasta el punto de que una de las últimas grandes apuestas de la empresa en lo que a innovación se refiere pasa por entrar en el sector del transporte a través de la conducción autónoma, porque la empresa quiere acompañarnos allá donde queramos ir para estar de manera omnipresente con nosotros y poder mostrarnos en cualquier momento sus anuncios relacionados con el contexto.

Facebook con su publicidad segmentada que le ha ayudado a generar un enorme negocio mostrando anuncios basados en lo que dice la gente que le gusta, piensa, interesa, comenta, … en esta red social y sus app asociadas (Whatsapp e Instagram) que aglutinan a miles de millones de personas, que están constantemente compartiendo información desde sus smartphones. Una información que resulta ideal para cruzar con publicidad de todo tipo de empresas que están deseosas de ofrecer nuevos productos o servicios a los usuarios en estas redes sociales.

Nota sobre la imagen: cuando una startup decide desarrollar un nuevo modelo de negocio una de las primeras cosas que debería hacer es el Mapa de Empatía como una forma de ponerse en la piel del que será su cliente e intentar entender cuáles son sus necesidades reales para las cuales posteriormente se podrá construir una propuesta de valor en la que se basará el negocio de la compañía. En el caso de empresas como Google, Facebook y Amazon, lo que han sido capaces es de generar ecosistemas de los que se destila perfectamente lo que los usuarios necesitan; en el caso de Google, por su gran capacidad de saber lo que el usuario está haciendo; en el caso de Facebook, por lo que dicen y piensan las personas; y en el caso de Amazon, por la posibilidad de adelantarse a las necesidades de sus clientes en relación con las cosas que están interesados en comprar.

Si lo pensamos bien, lo que estas grandes empresas han logrado a través de la innovación en sus modelos de negocio es generar una economía basada en ofrecer a otras empresas nuevas formas de anunciarse e interactuar con sus clientes. Google, como gran catalizador de la web basada en contenido, donde las empresas puedan darse a conocer a través de la información que generan basada en el conocimiento del sector en el que trabajan. Facebook, por medio de las interacciones que los usuarios pueden realizar con las marcas, aquellas que admiran o las que necesitan en su día a día. Amazon, ofreciendo un marketplace en el que cualquier empresa tiene a su disposición a millones de clientes dispuestos a darle trabajo a su tarjeta de crédito.

Por lo tanto, en el lado positivo de la balanza, nos encontramos con la capacidad de estas tres empresas de crear nuevos mercados y potenciar la economía, como por ejemplo la de las pequeñas empresas que antes tenían muy limitadas las opciones para darse a conocer a nivel global, debido a los altos costes de la publicidad en otros medios como la televisión o la prensa y la baja capacidad de «convertir y medir» que ofrecían estos canales.

Pero en el lado negativo nos encontramos todo lo relacionado con los problemas de la privacidad y el control que ejercen estas empresas sobre lo que se sabe de nosotros, algo que en muchas ocasiones puede ser tan importante como aquello que somos. Sobradamente conocidos a este respecto son todos los problemas que pueden suponer para la gente las cosas que publican en las redes sociales, en lo que se refiere a su reputación personal, que tan valiosa resulta a la hora, por ejemplo, de conseguir un empleo, o en aspectos mucho más críticos como pueden ser los relacionados con la seguridad.

Lo que cada vez todos tenemos más claro es que usar los servicios gratuitos que encontramos en Internet tiene un coste que no se paga con dinero, sino con datos. Y, para usarlos, hace falta mucho más que saber manejar aplicaciones online, también hay que ser inteligentes a la hora de decidir qué publicamos en ellas y qué dejamos al resguardo de nuestra privacidad. A este respecto no vamos a profundizar mucho aquí, pero no por ello queremos restarle importancia, de forma que lo que sí que os recomendamos es leer el libro «Datanomics» escrito por Paloma Llaneza o escuchar este podcast que sirve como un buen resumen del libro, en lo que se refiere a la parte de peligros de hacer un mal uso de los datos.

A continuación puedes leer un pequeño extracto del libro que sirve como un buen reflejo de lo interesante que puede resultar su lectura para entender bien lo que implica todo este tema de los datos en el mundo digital.

«Los datos están en nosotros. Somos productores de datos. Una mezcla de percepción equivocada y conocimiento de nuestros sesgos y adicciones nos ha convertido en productores intensivos de datos, recursos necesarios para que siga funcionando una maquinaria de servicios por los que no queremos pagar con dinero. Los datos cuentan nuestro pasado con una precisión nunca vista hasta ahora, y son los posos sobre los que se lee nuestro futuro con los algoritmos que, en muchos casos, lo convierten en una profecía autocumplida. Frente a negocios extractivos de este nuevo petróleo, se alzan cuestiones sobre quién ha de recibir el dividendo de los beneficios que nuestros dobles, nuestros doppelgänger digitales, generan a las empresas que los usan. Y entre tanto ciberoptimismo, el control de los datos se usa como herramienta de control social en un mundo en el que todo lo que se almacena en un sistema informático es susceptible de ser robado. La cuestión, al final, es que ceder nuestros datos excede de la elección individual, cuestionable, como veremos, al afectar a la convivencia y a los fundamentos de las reglas sociales que nos hemos dado para convivir.» Paloma Llaneza

Los bloqueadores de publicidad como indicio de que algo puede estar cambiando

Si lees el libro «Datanomics» o permaneces atento a las noticias que se publican al respecto de los problemas de gestión de los datos personales de sus usuarios que ha tenido Facebook en los últimos años, tendrás claro que algo tiene que cambiar en el futuro si queremos seguir construyendo valor para las personas a través de la tecnología y los negocios digitales. Algo que ha sido así durante mucho tiempo por las grandes ventajas que nos ha aportado Internet y la movilidad, pero que parece estar llegando a un punto de agotamiento donde los inconvenientes empiezan a destacar sobre las ventajas que recibimos. Aunque, por otro lado, pueda resultar contradictorio que, ante esa gran crisis de la gestión de la privacidad que se ha producido en Facebook (que la ha llevado a recibir una multa de 5.000 millones de dólares por parte del Gobierno de los Estados Unidos) ésto no se haya visto reflejado en las cifras de actividad de sus usuarios, en el crecimiento del número de éstos y en el crecimiento de su negocio.

Frente a esta contradicción, tenemos que guiarnos por el sentido común y pensar como los expertos en materia de privacidad y las instituciones que se preocupan por ello, que consideran que ha llegado el momento de pasar a la acción en lo relativo a mejorar la forma en la que se gestiona la información de las personas en Internet. Personas que, de alguna manera, también empiezan a preocuparse por ello, como muestra el incremento en el uso de los bloqueadores de publicidad del que habla el artículo «Llega el fin de la publicidad en Internet. Los usuarios han ganado la batalla» escrito por Doc Searls, uno de los autores del conocido y recomendado Manifiesto Cluetrain.

«Yo creo que el principal motivo por el que la gente rechaza la publicidad se puede resumir en una palabra: rastreo. Durante la última década, ha crecido el uso de la tecnología que acechan bajo la superficie de los anuncios en línea por parte de las empresas para captar tantos datos sobre nosotros como sea posible. Los anunciantes no tienen que construir esta capacidad por sí mismos: pueden depender de redes de distribución de publicidad que aseguran mostrar anuncios relevantes a los usuarios sin importar qué página web visiten. Shoshana Zuboff, de la Escuela de Negocios de la Universidad de Harvard (EEUU), lo llama el capitalismo de la vigilancia.» Doc Searls

Otro indicio del cambio que se puede estar produciendo en todo lo relativo a cómo las grandes empresas tecnológicas gestionan nuestros datos, es que, cada vez más, la opinión pública reacciona con mayor rapidez y contundencia frente a los posibles abusos que realizan estas empresas; por ejemplo, en los últimos meses estamos viendo cómo las empresas se ven obligadas a modificar las estrategias de gestión de los datos que se generan en los dispositivos de moda, los altavoces inteligentes tipo Alexa.

Reacciones de la opinión pública que también están haciendo reaccionar a los políticos que ven cómo algunas empresas tienen demasiado poder y se exceden en la forma en la que lo utilizan. Una muestra de esta reacción pueden ser, por ejemplo, las palabras:

«Los datos son la materia prima de la economía del siglo XXI. Ponerle precio a los datos, sobre todo los de los consumidores, es desde mi punto de vista un asunto esencial para garantizar un mundo justo». Angela Merkel

La postura de Apple como ejemplo de que se pueden hacer las cosas de otra forma

Lo que podemos preguntarnos en este punto es si hay alternativa al modelo de negocio que se ha desarrollado en Internet en los últimos 20 años. Fijarnos en la postura de Apple al respecto puede ser una buena opción para continuar con esta reflexión:

«Hay una economía sumergida de datos personales, y está descontrolada. Es hora de defender el derecho a la privacidad. El tuyo, el mío y el de todos nosotros. Los consumidores no deberían tener que tolerar otro año de compañías que acopian de manera irresponsable amplísimos perfiles de usuario, de violaciones de datos que parecen estar fuera de control, y de pérdida de la capacidad de controlar nuestras propias vidas digitales. Este problema se puede solucionar. No es aún demasiado grande, ni demasiado desafiante y tampoco es demasiado tarde. La innovación, las grandes ideas y las excelentes capacidades técnicas pueden ir de la mano de la privacidad del usuario. Y deben hacerlo, porque desplegar el potencial de la tecnología depende de ello». Tim Cook

Unas palabras que deberían servir para concienciar a toda la industria tecnológica al respecto de la necesidad de afrontar cambios en la forma en la que se gestiona este tema de los datos.

Aunque en la propia empresa Apple también deben aplicar estas ideas con la máxima rigurosidad, sobre todo después de la noticia que expuso que la empresa contaba con una iniciativa en la que sus trabajadores revisaban las conversaciones que mantenían las personas con Siri para mejorar el servicio, lo cual puede ser una violación de su privacidad.

Esta situación refleja lo realmente complicado que es el tema, algo que a su vez debe hacernos pensar en que existe una gran oportunidad para aquellos que decidan solucionarlo.

«Los mayores problemas del mundo son también los mayores mercados del mundo». Peter Diamandis

Telefónica ha tenido una buena idea pero no parece que esté siendo capaz de materializarla

En 2017 Telefónica nos sorprendió con una noticia bastante llamativa por lo innovadora de la idea que quería transmitir. Hacía tiempo que desde la Telco española se hablaba de que, de toda la información que circulaba por las redes, el mayor beneficio se lo llevaban empresas como Google y Facebook, pero ellos que ponían la infraestructura debían jugar un papel más relevante.

La forma de materializar esta idea fue promover un modelo llamado Cuarta Plataforma en la que se defendía el siguiente argumento: «queremos ceder a lo clientes todo el control sobre los datos que generan utilizando los servicios de la compañía (su localización cada vez que se conecta o llama, las webs a las que entra con su servicio de datos online, qué series o películas ve y cuántas veces en Movistar Plus…). Para ello transformaremos la información en conocimiento, y lo compartiremos con los clientes para que lo utilicen para enriquecer su vida».

Una idea, la de la cuarta plataforma, que un año después evolucionó para integrarse con su estrategia de utilización de la Inteligencia Artificial y asistentes virtuales a la que han llamado Aura:

«Aura redefine la interacción entre Telefónica y sus clientes. Ofrecerá seguridad y simplicidad en las formas, transparencia y control sobre sus datos personales, facilitándoles además el descubrimiento de nuevos usos para ponerlos en valor y todo ello a través de múltiples canales y dispositivos. Todo esto es posible gracias al flujo de dichos datos que hasta ahora generaban de forma ininterrumpida, aunque fragmentada, las redes y otros activos físicos de la compañía (1ª plataforma y el activo fundamental sobre el que se apoyan el resto), sus sistemas unificados de IT (2ª plataforma), así como los productos y servicios que ofrece a sus clientes (3ª plataforma). Este nuevo modelo de compañía basado en plataformas inteligentes supondrá un gran salto cualitativo en el modelo de relación de los clientes con la compañía».

Como decimos la idea de dar el poder a los clientes sobre los datos que generan resulta muy interesante pero nos tememos que no va a ser sencillo encontrar una forma de convertirlo en una realidad, principalmente porque los usuarios cuando piensan en empresas como Google, Facebook o Amazon cuando interactúan con Internet, pero no en la empresa que les proporciona los cables o las ondas a través de las cuales utilizan esos servicios.

La extraña estrategia de Facebook que parece ir contra su propio modelo de negocio

¿Podría Facebook pasar de ser la empresa más odiada por los defensores de la privacidad, a convertirse en la promotora de un cambio radical en el modelo de negocio basado en la gestión de los datos digitales de las personas? Quizás algo parecido a lo ocurrido con Microsoft que ha pasado de ser el mayor enemigo del software libre para convertirse en su promotor con iniciativas como la compra de Github.

Parece bastante improbable, pero algunas noticias recientes nos hacen pensar en que puede haber una pequeña opción.

  1. El lanzamiento de la aplicación Study from Facebook a través de la cual la empresa gestionará un sistema de incentivos económicos para aquellas personas que le ayuden a mejorar su servicio a través de proporcionarle información específica que la empresa necesita.
  2. La publicación de la herramienta que permite a los usuarios conocer la información que los sitios web comparten con Facebook y borrar esta información si así lo considera el usuario.
  3. Y la noticia más relevante de la empresa en los últimos años con el lanzamiento de su criptomoneda Libra, la cual ha llegado rodeada de polémica por vincularse con la falta de prejuicios de la empresa al respecto de cómo gestiona nuestros datos, pero que por otro lado podría pensarse en que puede ser un cambio de tendencia a través del cual se ha decidido tener una mayor consideración hacia los usuarios que formarían parte de un ecosistema en el que no se maneja únicamente información sino también una economía de la cual pueden salir beneficiados.

Destacar aquí en este tema de Libra, la gran acogida que ha logrado por parte de importantísimas empresas en el ámbito financiero y digital que se han convertido en socios del proyecto.

¿Podría la economía evolucionar de un modelo basado en el dinero a uno nuevo basado en los datos?

Cuando hace miles de años la humanidad evolucionó de una economía basada en el trueque a una basada en el dinero o monedas, el trueque no desapareció. De hecho, como la población y la actividad económica han crecido muchísimo, el trueque se usa actualmente en una cantidad mucho mayor de lo que se usaba en la prehistoria. Del mismo modo cuando se empezaron a usar los pagos electrónicos, no dejó de usarse el dinero en metálico, aunque ahora se mueva mucho más dinero de manera electrónica, tanto en lo que se refiere a negocios entre empresas como por parte de los particulares. De esta forma podría ocurrir que, en un futuro, el dinero, en su formato actual de monedas creadas por los países para representar el valor de su economía y poder realizar transacciones para pagar por aquellas cosas que tienen valor para nosotros, deje de tener la predominancia que ahora tiene para evolucionar a un nuevo modelo en el que los datos tomen el protagonismo de la economía.

En una economía basada en los datos no sería necesario convertir el valor que estos representan en dinero, sino que se podría realizar un intercambio comercial directo con los propios datos. Pensemos por ejemplo en la compra de Motorola por parte de Google en 2011 por un valor de 12.500 millones, con el objetivo de hacerse con las patentes del fabricante de móviles. Si consideramos una patente como un dato y pensamos también que una acción de Google es un dato, la transacción podría haberse realizado directamente como un intercambio de patentes por acciones, sin la necesidad de reflejar en ningún momento el valor a través del dinero. Seguro que los accionistas de Motorola habrían estado muy satisfechos con la operación, considerando que las acciones de Google han multiplicado por cuatro su valor desde 2011.

Una de las claves que pueden sostener el argumento de que la economía podría evolucionar a un modelo basado en los datos, en lugar del dinero, la encontramos al fijarnos en cómo funcionan las grandes empresas en cuanto a la forma de representar el beneficio que reciben sus accionistas a través de las acciones de la empresa. Pensemos, por ejemplo, en que las personas más ricas del mundo no lo son por tener mucho dinero acumulado en los bancos o en propiedades inmobiliarias, sino que las grandes fortunas se ven siempre representadas por la posesión de acciones de empresas, que además, curiosamente, en los últimos años, son de empresas que basan sus modelos de negocio en los datos: Google, Apple, Facebook y Amazon.

En todo caso, está claro que este escenario en el que la economía evolucionase a un nuevo modelo de negocio basado en los datos, es algo improbable en el corto plazo, entre otras cosas por las siguientes razones:

  1. Las grandes empresas digitales como Google y Facebook viven muy bien con su modelo de negocio actual basado en la publicidad contextual y segmentada, por lo tanto, aunque reciban grandes multas por no gestionar adecuadamente los datos de sus usuarios, pueden seguir ganando muchísimo dinero con su modelo actual. Pensemos, además, en la inercia de negocio que han logrado estas empresas, lo cual les permite invertir cantidades ingentes de dinero en lo que pueden ser grandes negocios de futuro, como la Inteligencia Artificial en el caso de Google y la Realidad Virtual en el caso de Facebook. Esa capacidad de evolucionar y adaptarse, manteniendo un modelo de negocio basado en los datos hace que estas empresas puedan seguir muchos años siendo líderes de la economía sin cambiar sustancialmente su manera de funcionar.
  2. El valor de los datos de una única persona al azar es pequeño, porque donde está el gran valor es en agregar los datos de mucha gente para poder obtener conclusiones de su análisis. Esto es así en este momento ya que las empresas que utilizan los datos para definir sus estrategias, por ejemplo, para diseñar nuevos productos o sus ofertas comerciales, lo hacen considerando tendencias en los hábitos de consumo y no circunstancias concretas de una persona a nivel particular.
  3. En cuanto a las personas, al menos por lo que dicen muchos estudios, la generación llamada millenial no se preocupa mucho por su privacidad. Es más, le encanta la visibilidad que le proporcionan las redes sociales y le preocupa poco qué ocurrirá con sus datos. Por lo tanto, lo que vamos a tener que descubrir con el tiempo es qué resulta más valioso para las personas, la visibilidad que les aporta exponerse sin control en las redes sociales o cuidar su intimidad por las consecuencias que esto pueda tener para ellas en el futuro.

Y, por otro lado también podemos pensar en las razones que pueden ayudar a que prospere un nuevo sistema de gestión de los datos donde las personas que los generan tengan el control y obtengan el mayor beneficio:

  1. Presión regulatoria de los gobiernos en materia de privacidad. Una tendencia imparable a la vista de nuevas leyes, como el famoso RGPD.
  2. Penalizaciones a las empresas por problemas con la privacidad de los datos, porque no solo se trata de cumplir la ley, sino que además, en algunos casos, las multas pueden poner en peligro la viabilidad de las empresas.
  3. Cambio en los hábitos e intereses de los usuarios al respecto de su privacidad. Un tema con muchas luces y sombras del que parece que solo conoceremos la solución con el paso del tiempo.
  4. Aumento del uso de los bloqueadores de anuncios, lo cual ya hemos comentado en este artículo como un indicio del posible cambio de tendencia al respecto del interés de las personas por proteger su privacidad.

Ventajas de este nuevo modelo de negocio de los datos para las empresas:

  1. Los datos están segmentados y contextualizados ya que han sido obtenidos de manera premeditada por la empresa a través de una campaña de captación de datos específica, por lo tanto se evita uno de los grandes problemas del Big Data que es disponer de datos de calidad debidamente estructurados.
  2. Los datos son sólo de aquellas personas que realmente coinciden con los intereses de la empresas, de forma que se soluciona otro de los problemas del Big Data que es tener que manejar grandes volúmenes de información de la cual una parte muy importante realmente no tiene valor para la empresa.

Ventaja del nuevo modelo de negocio de los datos para las personas:

  1. Beneficio económico al recibir una remuneración por parte de aquellas empresas que quieran acceder a sus datos y con las que se puede establecer una relación comercial basada en la confianza.
  2. Recibir publicidad u ofertas sólo de las empresas en las que realmente se está interesado, considerando que este nuevo modelo de negocio no persigue acabar con la publicidad, sino mejorarla.

Startups con ganas de cambiar el status quo de los negocios digitales basados en los datos

“Nunca cambiarás las cosas luchando contra la realidad existente. Para cambiar algo, construye un nuevo modelo que haga que el modelo actual sea obsoleto.” Buckminster Fuller

Esta frase del famoso arquitecto Buckminster Fuller podría servir como una especie de premonición de lo que debería ocurrir ante esta posible revolución que supondría un cambio en el sistema económico en el que los datos cada vez tomen una mayor relevancia sobre el dinero.

Porque cuando se habla de construir nuevos modelos que dejen obsoletos a los anteriores, la historia nos muestra como esto no suele suceder por la acción de empresas ya existentes, a las que se suele denominar como incumbentes, sino que esa innovación suele llegar desde las startups. De esta forma, en el momento en el que empezamos a investigar sobre propuestas que buscan cambiar el modelo de negocio de los datos en Internet, lo que nos encontramos es la iniciativa de varias startups que quieren usar Blockchain para aportar soluciones a este problema.

En este contexto una de las aportaciones que puede realizar Blockchain para el futuro es el desarrollo de la Internet del Valor, donde aquellas cosas que tienen valor, como son los datos, la identidad, la reputación, … pueden llegar a ser gestionados de forma digital al igual que ahora gestionamos el dinero. Sobre este argumento están empezando a surgir algunas startups que buscan ayudarnos a los usuarios a tomar el control de nuestros datos y obtener un beneficio económico por ello.

Os presentamos a continuación algunas de las más interesantes que hemos encontrado:

Wibson es una startup con sede en San Francisco, que cuenta con el apoyo financiero de Telefónica, DGG Capital y Kenetic Capital, y se presenta con el siguiente argumento: tus datos personales son vendidos por sitios webs y apps que usas todos los días. Wibson te da el control para que tú mismo los vendas y elijas a quién vendérselos. Y además, te hace partícipe de las ganancias. Para ello están construyendo un  mercado de datos de consumo basado en Blockchain y se han asociado con Telefónica para probar una capacidad de verificación de datos que valida la autenticidad de los datos en su sistema, permitiendo a las personas vender de manera segura y anónima información privada de sus dispositivos a anunciantes y negocios en un entorno confiable.

GeoDB es una startup española que está creando un marketplace para democratizar la compraventa de datos, donde pagará a las personas por el uso que las empresas hagan de sus datos. Para ello están desarrollando un protocolo descentralizado que funcionará como un mercado de datos, donde estarán presentes tanto los usuarios que generan la información como las empresas que la necesitan. Para conseguirlo la empresa ha realizado una ronda de inversión de 1,2 millones de euros en la que han participado los fondos Next Chance Invest, Levo Capital y PadeInvest.

La posible aportación de la economía colaborativa a este cambio en el modelo de negocio digital

Supongamos que con el auge de la economía colaborativa o de la Gig Economy, potenciado por la crisis económica vivida durante varios años posteriores a 2008, vamos a dirigirnos a un nuevo modelo económico en el que la gente no tiene cosas en propiedad sino que simplemente paga por su uso cada vez que necesita algo ¿Se seguirán realizando estos pagos con dinero convencional o se desarrollará una economía más parecida al trueque que al sistema monetario? ¿Tendrán un papel relevante en este escenario las criptomonedas? Si estas plataformas de la Gig Economy trabajan con grandes volúmenes de datos proporcionados por sus usuarios, ¿serán capaces de generar alternativas de negocio basadas en el uso de esos datos?

Y ya que hemos empezado a hacernos preguntas, para terminar con este artículo, os dejamos una serie de ideas que se nos quedan en el tintero, a las que quizás podamos ir respondiendo aquí más adelante, apoyados por el debate que se genere gracias a vuestros comentarios:

  1. ¿Qué podemos aprender de las economías virtuales que se desarrollan en los videojuegos y los mundos virtuales al respecto de una posible economía basada en los datos?
  2. Los datos son el alimento necesario para que aprenda la Inteligencia Artificial, por lo tanto las empresas que se dedican a desarrollar esta tecnología cada vez van a necesitar más datos.
  3. La llegada del 5G va a acelerar la forma en la que generamos y gestionamos los datos.
  4. ¿Son los influencers los primeros que han comenzado a monetizar sus datos?
  5. La proliferación de dispositivos como los wearables y el comienzo del uso de la biometría va a aumentar significativamente la cantidad y calidad de los datos que generamos en nuestro día a día.
  6. Los datos son mucho más que lo que generamos cuando navegamos por Internet, hay datos enormemente más valiosos, como los que se encuentran en nuestro código genético y sobre esto también se puede generar una economía muy importante, en la que intervienen las empresas que trabajan en el ámbito de la medicina personalizada.
  7. ¿Cómo puede cambiar todo este escenario con la llegada de las comunicaciones cuánticas?

Etiquetas: , , ,

Los 10 hitos tecnológicos de 2018

Publicado el 28 diciembre, 2018

El final de año es el momento ideal para hacer balance de lo logrado y planificar nuevos objetivos, así que en Futurizable hemos pensado en realizar una recopilación de las noticias que para nosotros han resultado más relevantes a lo largo de 2018. Si tenemos en cuenta que a lo largo de un año se producen miles de novedades importantes en el ámbito de la tecnología y que además cada año este fenómeno tiene una mayor magnitud, es difícil seleccionar tan solo unas pocas y, sobre todo, colocarlas por orden de importancia. Debido a su notoriedad y posible impacto futuro, nos atrevemos a hacer la siguiente selección.

La modificación genética de embriones humanos con CRISPR

Sin duda estamos ante una de las noticias más importantes del año por su trascendencia futura en lo que a la evolución de la humanidad se refiere. Teniendo en cuenta que CRISPR es una tecnología de edición genética que nos va a ofrecer, por ejemplo, una gran utilidad a la hora de mejorar la producción de alimentos o en la lucha contra enfermedades en todos los seres vivos, en este caso la noticia de que un científico chino ha modificado genéticamente dos bebés para protegerles contra el virus del SIDA, no es nada positiva. Aquí la comunidad científica coincide en que se ha cometido un gran error al aplicar esta técnica en embriones humanos antes de conocer sus implicaciones futuras, debido a la falta de investigación en este campo. Seguro que si esta noticia se hubiese producido dentro de unos años, cuando ya se hubieran realizado muchas más pruebas y cuando se hubiese llegado a un consenso a nivel ético sobre la utilización de esta tecnología, ahora lo podríamos estar celebrando como un gran avance de la humanidad en la lucha contra las enfermedades.  Sin embargo, esto no ha sido así y, por lo tanto, desconocemos las posibles consecuencias que tendrá para el futuro.

El Premio Nobel de Medicina para la inmunoterapia en cáncer

Como una buena noticia que nos llega desde la investigación en Biomedicina, vale la pena hablar de la inmunoterapia por haber sido merecedora del Premio Nobel de Medicina, que ha sido otorgado a dos científicos que han hecho grandes aportaciones en este ámbito. James P. Allison y Tasuku Honjo han llevado a cabo importantes descubrimientos en la terapia del cáncer mediante regulación del sistema inmunitario. Su trabajo ha sido fundamental para demostrar el potencial real de la inmunoterapia como tratamiento contra el cáncer y ha sido un punto de partida para el desarrollo de nuevos ensayos clínicos con pacientes que pueden ser curados del cáncer gracias a la activación de su propio sistema inmune, capaz de luchar contra las células cancerígenas causantes de esta terrible enfermedad.

El lanzamiento del Falcon Heavy de SpaceX

Probablemente la noticia tecnológica con más impacto mediático de este año ha sido el lanzamiento al espacio del cohete Falcon Heavy por parte de SpaceX. Los 23 millones de visualizaciones en Youtube de este evento muestran que la exploración espacial vuelve a estar de moda y en esta ocasión son las empresas tecnológicas las que han tomado la iniciativa, proponiendo nuevos retos para el futuro. La colonización de Marte parece el objetivo más relevante para los próximos años y la posibilidad de disponer de tecnologías como las que tiene el Falcon Heavy de SpaceX nos acerca mucho más a ese objetivo. Aquí hay que reconocer el mérito de Elon Musk, que está realizando grandes hazañas en lo que a avance tecnológico se refiere y aunque como personaje público tiene sus luces y sus sombras, nadie puede dudar de su afán por innovar en todo tipo de sectores a través de un buen número de iniciativas empresariales que están transformando sectores tan importantes como el transporte y la energía.

La llegada de la sonda Insight a Marte para estudiar su subsuelo

También en el ámbito de la exploración espacial vale la pena destacar el amartizaje de la sonda Insight, que tuvo lugar el 26 de noviembre con el objetivo de estudiar el subsuelo del planeta a nivel geológico y sísmico, con la vista puesta en una futura colonización de Marte. A nivel científico la sonda está dotada con la tecnología necesaria para desarrollar las investigaciones que nos ayuden a comprender los procesos que dieron forma a los planetas rocosos del sistema solar interno hace más de cuatro mil millones de años. Además de esta iniciativa destacamos la participación española, que ha sido responsable de aportar el instrumento Temperature and Winds for InSight (TWINS), desarrollado por el Centro de Astrobiología (INTA-CSIC) de España con el objetivo de identificar los momentos exactos en los que los instrumentos han de ser cogidos por el brazo robótico y depositados sobre el suelo marciano. Las condiciones meteorológicas en esos momentos son cruciales y un despliegue adecuado resulta crítico para la posterior ciencia y funcionamiento de estos instrumentos.

Los avances en el desarrollo de Hyperloop

El acuerdo alcanzado por Virgin Hyperloop One para unir Mumbai y Pune, en la India, a través de su tecnología de trenes de alta velocidad, es solo un ejemplo de las muchas noticias que se han producido este año relacionadas con los avances de esta idea que puede suponer un gran impulso para mejorar la situación del transporte de mercancías y personas a nivel mundial. Otra noticia interesante sobre Hyperloop que tiene que ver en este caso con España ha sido la construcción de una cápsula por parte de la empresa Airtificial, lo cual es una pequeña muestra de que la idea que inicialmente fue lanzada el mundo por Elon Musk está logrando importantes avances, logrando motivar a muchas empresas, emprendedores e instituciones para que se pongan a trabajar con un objetivo tan ambicioso como es reducir drásticamente los tiempos de transporte a nivel terrestre y equipararlos a los tiempos correspondientes en transporte aéreo.

El desarrollo e inversión en coches autónomos

En el ámbito científico y tecnológico no es muy habitual que haya consenso a la hora de predecir el plazo en el que se van a desarrollar determinadas innovaciones y el impacto que van a tener estas a nivel social. Pero en el caso de la conducción autónoma sí que existe, ya que las ventajas que ofrece esta tecnología son enormes y son muchas las empresas que trabajan para que pronto sea una realidad en nuestras vidas. La puesta en marcha de Waymo One, el servicio de taxis autónomos de Google es un ejemplo de que ya es posible utilizar coches sin que ninguna persona tenga que conducirlos. Aunque también es cierto que a lo largo del año se han producido varios accidentes que han perjudicado un poco la imagen de esta tecnología, lo que más estamos viendo es que la conducción autónoma va a ser solo una parte de un nuevo modelo de transporte en las ciudades, que se va a ver reforzado por las políticas ambientales que están promoviendo los diferentes gobiernos.

El impulso regulatorio para la implantación de la movilidad eléctrica

En la línea de lo comentado en el punto anterior, este año nos encontramos con noticias como el comienzo de la regulación para prohibir la producción de vehículos impulsados por combustibles fósiles, donde por fin se ha puesto fecha de caducidad para este modelo de transporte, lo que a su vez va a suponer un gran acicate para la fabricación de vehículos eléctricos. Además cada vez son más frecuentes las noticias sobre el lanzamiento de los modelos eléctricos de muchas marcas fabricantes de automóviles que siguen la tendencia de la pionera Tesla, que también este año ha tenido buenas noticias al lograr por primera vez entrar en rentabilidad y cumplir con sus expectativas de producción. Todo son buenas noticias en este sector que tanto va a ayudar a que mejore el fatídico tema de la contaminación en las ciudades.

La popularización de los asistentes virtuales gracias a los altavoces inteligentes

En lo que a negocios digitales se refiere podemos decir que 2018 ha sido el año del auge de los altavoces inteligentes dotados con asistentes virtuales para el hogar. Con Amazon y Google al frente, estamos viendo que al igual que ha ocurrido anteriormente con los smartphones y las tablets, los principales fabricantes de electrónica se adentran en este nuevo mercado. Ello va a traer como resultado que la Inteligencia Artificial sea cada vez más usada en el día a día por las personas a través de la interacción con los asistentes virtuales por medio de la voz. Porque ahora sí podemos decir que comienza la era de la voz como interfaz, para comunicarnos con la tecnología ya sea por medio de los altavoces, con el coche o con todo tipo de electrodomésticos, que están dotados de la inteligencia para entender lo que decimos y realizar una acción correspondiente en base a las necesidades que les hayamos transmitido.

El pinchazo de la burbuja de las criptomonedas

2018 ha sido un mal año para los inversores en criptomonedas, que han visto como la valoración de estos activos digitales se ha reducido significativamente. Las razones para ello pueden ser múltiples, aunque como siempre ocurren en el ámbito de la inversión, serán todas y ninguna a la vez.  Lo que está claro es que 2017 fue un año de euforia en este ámbito, con subidas impresionantes en la valoración de las principales criptomonedas, como Bitcoin y Ethereum, además del auge de las ICOS, que este año se han frenado en seco, lo cual es una de esas muchas razones para la bajada en la valoración de las criptomonedas. Por otro lado, en lo que a Blockchain se refiere, hemos visto importantes avances en su aplicación en el mundo empresarial, aunque aún no es una tecnología que se esté implantando de manera masiva debido a su complejidad técnica y por la falta de profesionales especializados en ello. En todo caso está bastante claro que estamos ante una de las grandes tendencias de futuro en el ámbito tecnológico y que en los próximos años seguiremos viendo importantes avances al respecto.

El auge de los eSports y el boom de Fornite

Los videojuegos no pasan de moda y todas las cifras nos indican que estamos ante un fenómeno que supera ya al del cine, la televisión y los deportes tradicionales. Youtube y los jugadores que se dedican a grabar sus partidas han tenido mucho que ver en este fenómeno, al igual que la organización de competiciones a las que asisten miles de personas con el objetivo de ver a los que se consideran como estrellas de los videojuegos, jugadores profesionales que cuentan ya con sueldos millonarios. Además en este mundo han empezado a entrar muchas empresas en busca de las grandes audiencias que se manejan y de un público joven que cada vez se muestra menos receptivo a las campañas publicitarias tradicionales. Y entre todo este fenómeno destaca con nombre propio Fornite, el videojuego que está batiendo todos los récords a nivel de uso y de negocio generado, habiendo destronado al famoso Minecraft como el preferido entre niños y adolescentes. Un juego que además está consiguiendo muchísima atención a nivel mediático por la manera en la que gestionan sus actualizaciones a través de temporadas como si fuera una serie de televisión.

Hasta aquí nuestra recopilación de los 10 hitos tecnológicos de 2018. Y como seguro que para vosotros ha habido otros más relevantes, nos encantaría que nos lo contéis a través de Twitter. Hemos publicado un hilo en el que podéis contarnos cuáles han sido para vosotros los temas científicos y tecnológicos del año que ahora termina.

 

 

Etiquetas: , , , , , , ,