deep learning archivos - Futurizable | Sngular
Enlaces rápidos
  • Blockchain
  • Big Data
  • Educación
  • Robótica
  • Espacio

Currently Viewing Posts Tagged deep learning

Oda a las redes neuronales

Publicado el 16 febrero, 2023

Pensando en Sistemas

En el Universo todo son sistemas y lo normal es que estos funcionen porque llegan a una especie de equilibrio, al menos si la vida existe y sobre esa vida se ha llegado a desarrollar inteligencia es porque existe un equilibrio.

  • El equilibrio en el Sistema Solar permite que los planetas giren alrededor del Sol sin chocarse unos con otros y sin precipitarse sobre la estrella que proporciona la energía necesaria para que al menos en la Tierra pueda haber vida.
  • El equilibro del planeta Tierra con la Luna determina el funcionamiento de las mareas y esto a su vez genera un equilibrio con los vientos en la atmósfera, lo cual determina muchos aspectos en el clima que también influyen en la vida.
  • El ahora nuevamente famoso núcleo terrestre incluso tiene una influencia importante en el desarrollo de la vida terrestre gracias al efecto de apantallamiento magnético que nos protege de las radiaciones procedentes del espacio.
  • El equilibro en los ecosistemas terrestres es aún más palpable en nuestra vida y está muy bien representado por la cadena trófica, donde los cambios que se producen en alguna de las especies que habitan la tierra puede afectar a las demás.
  • También el equilibrio existente en el interior y exterior de los seres vivos con las bacterias que lo pueblan es tremendamente relevante para nosotros, hasta el punto que sin ellas no podríamos vivir, ni quizás tampoco ser inteligentes.
  • Finalmente llegamos al equilibro entre la inteligencia humana y la Inteligencia Artificial, que tras millones de años de evolución de la vida es justo el momento en el que nos encontramos ahora y nos hace visualizar un escenario en el que ya existe una Super Inteligencia Artificial o Inteligencia Artificial General si consideramos la combinación del humano y la máquina como un sistema que se retroalimenta. No necesitamos llegar a tener una inteligencia artificial que sea 100% autónoma, lo mejor que puede ocurrir en estos momentos es que lo artificial sea parte de un sistema que trabaja en colaboración con las personas.

Y así es como hemos llegado de nuevo al tema de la Inteligencia Artificial que es a lo que vamos a dedicar este artículo, porque todo lo que está pasando en los últimos meses con las GenAI lo merece y desde Futurizable queremos contribuir a que sea cada vez más conocido y utilizado entre los que cada domingo leéis esta newsletter.

Un recorrido por la historia reciente de las Redes Neuronales

Entender lo que está ocurriendo con la Inteligencia Artificial merece dedicarle algo de tiempo a aprender cómo hemos llegado hasta aquí y cuáles son las principales tecnologías que hacen posible que ahora estemos hablando con ChatGPT como si fuera un humano que nos acompaña en nuestro día a día, para ayudarnos con nuestras actividades habituales, ya sea cuando estamos trabajando, cuando estamos aprendiendo, y sobre todo cuando estamos haciendo ambas cosas a la vez.

Sin tener que remontarnos a la época de Alan Turing y las primeras computadoras, cuando ya se comenzó a hablar de Inteligencia Artificial, es interesante pensar que desde ese momento ya estaba previsto que la tecnología fuera poco a poco replicando las capacidades humanas que solemos asociar con la inteligencia, como son la capacidad de hablar, leer, escribir, reconocer imágenes, resolver problemas matemáticos, jugar a juegos como el ajedrez y sobre todo aprender.

De esta forma los desarrollos en Inteligencia Artificial han seguido durante mucho tiempo dos caminos diferentes, por un lado los sistemas expertos donde se desarrollaban diferentes herramientas de software que estaban programadas para replicar las habilidades humanas pero a base de fuerza bruta, ya que la máquina no se cansa y tiene todo el tiempo del mundo para hacer los cálculos necesarios para replicar de manera matemática lo que un humano hace, por ejemplo cuando juega a las damas, que es uno de los primeros juegos donde se puso a prueba esta tecnología en la década de los 50.

Desde entonces hemos vivido diferentes periodos de auge y caída de las expectativas al respecto de las posibilidades que podría ofrecernos la Inteligencia Artificial, lo cual no ha hecho que en todo este tiempo los científicos declinaran en su afán por avanzar en el desarrollo de esta tecnología, como queda de manifiesto en la siguiente cronografía que debería servirnos para hacernos una idea de dónde estamos y cómo hemos llegado hasta aquí.

  • Las primeras redes neuronales artificiales fueron desarrolladas en 1943 por el neurofisiólogo Warren McCulloch y el matemático Walter Pitts. Sin esta invención sería imposible haber experimentado el gran avance de la Inteligencia Artificial en los últimos años, gracias a la genialidad de replicar la inteligencia a través de sus elementos fundacionales, las neuronas.
  • La neuronal artificial perceptrón desarrollado en 1957 por Frank Rosenblatt fue otro de los pilares fundamentales de esta tecnología y ofrecía la utilidad de resolver problemas de clasificación binaria, determinando si un objeto dado pertenecía a una de dos categorías.
  • El siguiente paso era conectar las neuronas artificiales entre sí, porque esto es lo que se considera como base para la inteligencia, no solo que tengamos neuronas sino como estás se conectan e interactúan formando un sistema, lo cual es la razón por la que hablamos de redes neuronales y no solo de neuronas. Y esto sucedió en la década de los 60 gracias a Georgiy Ivakhnenko y Vladimir Lapa con el desarrollo de redes neuronales que realizaban tareas como la identificación de sistemas y la predicción de series temporales. Estas redes neuronales se caracterizaban por su capacidad para realizar ajustes finos y por su estructura en cascada, lo que permitía que la información fluyera de una capa a otra; también por su capacidad para aprender a partir de datos y para generalizar a nuevos datos.
  • Y así es como llegamos al aprendizaje automático, o machine learning, que como os podéis imaginar es en lo que se basa todo lo que ha venido después y que ahora denominamos como deep learning, como una representación de que si las máquinas aprenden es gracias a la estructura de capas de redes neuronales apiladas unas sobre otras.
  • Después tuvieron que pasar un par de décadas (el invierno de la Inteligencia Artificial), en concreto llegar a los años 80 y 90 para que se produjera un nuevo gran avance en esta tecnología, con la invención de las redes neuronales convolucionales, propuestas por Kunihiko Fukushima en 1980 a través del concepto de Neocognitron, que ​más tarde fue mejorado por Yann LeCun en 1998​ al introducir un método de aprendizaje basado en la propagación hacia atrás para poder entrenar el sistema correctamente.
  • Este diseño de redes neuronales convolucionales fue refinado en 2012 por Dan Ciresan y en este momento es cuando se produce el gran punto de inflexión en esta tecnología, gracias a su utilidad para el procesamiento de imágenes. Precisamente en 2012 esta arquitectura de redes neuronales logró una gran notoriedad por usarse para vencer en la competición ImageNet organizada por las universidades Stanford y Princeton, para fomentar el desarrollo de los sistemas de clasificación de imágenes basados en Inteligencia Artificial.
  • También en 2012 Geoffrey Hinton y George Dahl, usaron redes neuronales profundas para ganar una competencia organizada por Merck en la plataforma Kaggle, que era utilizada por una gran cantidad de científicos de datos y expertos en Inteligencia Artificial para poner a prueba sus modelos de aprendizaje automático.
  • En paralelo al desarrollo de las redes neuronales convolucionales encontramos las redes neuronales recurrentes que se basan en el trabajo de David Rumelhart en 1986. Estas se utilizan para procesar secuencias de datos, como texto, audio o vídeo, es decir, para el procesamiento del lenguaje natural. En lugar de procesar cada entrada independientemente, mantienen un estado oculto que se actualiza a medida que se procesan las entradas sucesivas en la secuencia, lo cual les permite tener en cuenta la información anterior y procesar la secuencia completa para producir una salida.
  • Fue en 2014 donde vimos como todo comenzaba a acelerarse y donde nos encontramos con las redes neuronales generativas antagónicas, las famosas GANs, desarrolladas por Ian Goodfellow. Estas redes están formadas por dos partes, un generador y un discriminador, donde a través de un proceso iterativo, el generador aprende a crear datos cada vez más convincentes y el discriminador aprende a ser más efectivo en la detección de datos falsos, lo cual ha tenido un recorrido enorme en los últimos años para la generación de imágenes.
  • En 2015 Google libera Tensor Flow, la librería de software gratuita y de código abierto para el aprendizaje automático y la inteligencia artificial, que puede ser usada en una variedad de tareas, pero que tiene un enfoque particular en el entrenamiento y la inferencia de redes neuronales profundas. A raíz de esta iniciativa multitud de personas se lanzan a la aventura de aprender sobre Inteligencia Artificial lo cual acelera considerablemente el desarrollo de esta tecnología.
  • Y entonces llegó el año 2016 donde la Inteligencia Artificial ocupó todas las portadas gracias al desarrollo de AlphaGo por parte de DeepMind, al ganar al campeón del mundo del juego de mesa de Go, gracias a un desarrollo en el que confluían tecnologías de aprendizaje automático combinadas con un de árbol del decisión del tipo búsqueda Monte Carlo. Llegados a este punto vale la pena mencionar que en aprendizaje automático a demás de las redes neuronales artificiales tenemos otros algoritmos como son los árboles de decisiones, las reglas de asociación, los algoritmos genéticos, las máquinas de vectores de soporte, los algoritmos de agrupamiento y las redes bayesianas.
  • Finalmente vamos a detenernos en este viaje en el año 2017 con la publicación del paper Attention Is All You Need donde se presentan los transformers como un nuevo tipo de red neuronal que viene a mejorar a las convolucionales y a las recurrentes, proponiendo una estructura secuencial que procesa la información en forma de secuencia, como ocurre en una frase o un documento, en lugar de procesar la información en una estructura de grid, como en una red neuronal convencional. Para ello se utiliza el concepto de atención, que permite a la red considerar la importancia de diferentes partes de la secuencia al realizar tareas como la traducción automática o la clasificación de texto. La atención permite a la red aprender a enfocarse en las partes relevantes de la secuencia y desechar aquellas que no son importantes.

Nomenclatura para entender el funcionamiento de las redes neuronales

Para sacar provecho de la Inteligencia Artificial Generativa no es necesario conocer en profundidad el funcionamiento del Deep Learning ni de las redes neuronales que lo soportan, pero como muchas veces al hablar de esta tecnología se menciona el tipo de red neuronal en el que está basado y alguna característica específica de su arquitectura, puede ser interesante conocer algunos de los términos más habituales.

  • Neuronas artificiales: son las unidades básicas de una red neuronal y se encargan de procesar y transmitir la información.
  • Entrada: son las características o variables que se utilizan como entrada de información en la red neuronal.
  • Capas: una red neuronal puede estar compuesta por una o más capas de neuronas. Las capas de entrada contienen las neuronas que reciben las señales de entrada, mientras que las capas intermedias, también llamadas ocultas, y la capa de salida contienen las neuronas que procesan y generan la señal de salida.
  • Pesos: cada entrada de una neurona está asociada a un peso que controla la influencia de esa entrada en la salida de la neurona. Los pesos se ajustan durante el proceso de aprendizaje de la red neuronal.
  • Sesgos: son parámetros adicionales que se incluyen como una corrección que se aplica a la entrada de una neurona antes de que se calcule su salida, lo cual se utiliza para desplazar la función de activación de una neurona hacia arriba o hacia abajo, lo que permite ajustar la salida de la neurona de forma independiente de sus entradas
  • Función de activación: es una función matemática que se aplica a la suma ponderada de las entradas para producir la salida de la neurona. La función de activación introduce no linealidad en la red neuronal, lo que permite a la red modelar una gran variedad de relaciones complejas entre las entradas y las salidas.
  • Propagación hacia adelante: es el proceso de calcular la salida de la red neuronal a partir de las entradas y los pesos. La señal de entrada se propaga a través de las capas de la red neuronal hasta la capa de salida.
  • Función de costo o pérdida: es una medida de la diferencia entre la salida deseada y la salida real de la red neuronal. Se utiliza para evaluar el rendimiento de la red y para guiar el proceso de aprendizaje.
  • Optimizador: es un algoritmo que se utiliza en el entrenamiento de redes neuronales para mejorar sus capacidades predictivas con el objetivo de encontrar los mejores pesos y sesgos de las redes neuronales de manera que puedan producir las predicciones más precisas posibles.
  • Propagación hacia atrás: es el proceso de ajustar los pesos de la red neuronal en función de la función de costo y de la propagación hacia adelante. Se trata de un algoritmo de optimización que permite a la red neuronal aprender a partir de los datos de entrenamiento.
  • Entrenamiento: el entrenamiento es el proceso de ajuste de los pesos y los sesgos de las conexiones entre las neuronas artificiales en una red neuronal con el fin de optimizar su capacidad para realizar tareas específicas. La idea detrás del entrenamiento es que la red neuronal debe ser capaz de aprender de los datos de entrada y producir una salida correcta para una determinada tarea. Esto se lleva a cabo a través del uso de un conjunto de datos de entrenamiento, que consiste en pares de entrada y salida deseada. La red neuronal ajusta sus pesos y sesgos en base a la comparación entre su salida actual y la salida deseada para cada ejemplo en el conjunto de datos de entrenamiento. Este proceso se repite varias veces hasta que la red neuronal alcance un nivel aceptable de precisión en la realización de la tarea deseada. Así el éxito del entrenamiento depende de factores como la calidad y cantidad de los datos de entrenamiento, la estructura de la red neuronal, la elección de la función de pérdida y la optimización del proceso de entrenamiento.
  • Aprendizaje supervisado: es un tipo de aprendizaje automático en el que se utiliza un conjunto de datos etiquetados para entrenar un modelo de aprendizaje, donde se proporciona una entrada y una etiqueta deseada para cada ejemplo en el conjunto de datos, y el objetivo es que el modelo aprenda a producir la etiqueta correcta para nuevas entradas en base a los patrones de asociación encontrados en los datos de entrenamiento.
  • Aprendizaje no supervisado: es otro tipo de aprendizaje automático en el que en esta ocasión se utiliza un conjunto de datos sin etiquetar para entrenar el modelo, por lo tanto, ya que no se proporciona una etiqueta deseada para cada ejemplo en el conjunto de datos, el objetivo es que el modelo descubra patrones y estructuras ocultos en los datos, como son las agrupaciones y las asociaciones.
  • Aprendizaje por refuerzo: es un tipo de aprendizaje automático en el que un algoritmo aprende a tomar acciones en un entorno con el objetivo de maximizar una recompensa o refuerzo, de esta forma experimenta con diferentes acciones y recibe recompensas o penalizaciones en función de sus acciones. A partir de estas experiencias, el algoritmo ajusta su comportamiento para maximizar la recompensa en el futuro.
  • Finetuning:  consisten en utilizar una red neuronal que ya ha aprendido algunas características útiles para realizar una tarea en particular, pero ahora queremos aplicar esa red neuronal a un nuevo problema. Para ello se aprovechan los pesos y sesgos aprendidos previamente y se adaptan a un nuevo problema específico. Este proceso implica congelar los pesos y sesgos de una parte de la red neuronal preentrenada y continuar el entrenamiento solo en la parte restante de la red. Esto se hace porque se asume que la parte preentrenada de la red ya ha aprendido características generales útiles en un problema similar, y que estas características se pueden transferir y ajustar al nuevo problema. Esta técnica se utiliza cuando no hay suficientes datos disponibles para entrenar una red neuronal desde cero, o cuando se desea aprovechar las capacidades de aprendizaje de una red neuronal preentrenada.
  • Gran modelo de lenguaje: es un modelo de aprendizaje profundo que ha sido entrenado en un gran corpus de texto con el objetivo de comprender y generar lenguaje humano. Estos modelos utilizan técnicas de aprendizaje automático y procesamiento del lenguaje natural para desarrollar una comprensión profunda del significado del lenguaje y cómo se relaciona con otros conceptos. Los grandes modelos de lenguaje se utilizan en una variedad de tareas, incluyendo la traducción automática, la generación de texto, la respuesta a preguntas, la clasificación de texto, la búsqueda en internet, la asistencia virtual y la automatización de chats.

Y aquí es donde acaba la historia que os queríamos contar hoy, porque un gran modelo de lenguaje es precisamente lo que ha creado la empresa OpenAI a través de GPT-3 y su versión para conversar con humanos ChatGPT.

La respuesta de Google al huracán ChatGPT

Bueno, quizás mejor no terminamos aún, porque están pasando tantas cosas en este sector de la Inteligencia Artificial que vale la pena hacer un bonus para fijarnos en la respuesta que está dando o quiere dar Google a las diferentes iniciativas emprendidas por OpenAI y su socio Microsoft. Ya que tras la integración de GPT en Bing y otras herramientas como Teams, parece que no queda mucho para que Google haga lo propio con su buscador, con la presentación de Bard, que está basado en el modelo de lenguaje para aplicaciones de diálogo LaMDA

Además recientemente Google ha invertido 300 millones de dólares en la startup Anthropic, lo cual nos lleva a recordar que en este juego no solo participan las grandes empresas tecnológicas, sino que se está desarrollando un ecosistema increíble de nuevas empresas, algunas de las cuales muestran un futuro enormemente prometedor, como es el caso de Perplexity, que es una de las más avanzadas en este campo de los chats basados en Inteligencia Artificial Generativa.

Y ahora sí, para terminar, os dejamos algunos recursos para seguir aprendiendo sobre este apasionante tema, hasta la semana que viene que volveremos en Futurizable con más contenidos sobre GenAI.

  • Third Oasis: es un directorio de aplicaciones basadas en Inteligencia Artificial Generativa.
  • Dot CSV: probablemente el mejor canal de Youtube de divulgación sobre Inteligencia Artificial.
  • Monos Estocásticos: un nuevo podcast dedicado relatar toda la actualidad de este sector.

Etiquetas: , , , , , ,

Se busca ascensorista

Publicado el 06 febrero, 2023

Muy recomendable escuchar este podcast en el que dos profesores debaten al respecto de cómo la Inteligencia Artificial Generativa (GenAI), especialmente ChatGPT puede afectarles en su trabajo. De la conversación se pueden deducir muchas cosas y cada uno puede entenderlo de una forma, pero lo que está claro es que se vienen curvas y va a ser muy importante prestar atención a los cambios que esta tecnología va a producir a nivel global, no solo como en este caso en el sector educativo.

¿Ocurrirá con los profesores como con los ascensoristas? es imposible predecirlo, pero lo que es más sencillo deducir es que un profesor tendrá que dejar de hacer su trabajo como lo ha estado haciendo hasta ahora, porque se perderá totalmente el sentido y la utilidad. Por lo tanto, todo apunta a que los profesores tendrán que volver a la escuela a aprender de nuevo cómo hacer su trabajo o más bien, todos deberíamos empezar a pensar en cuál es la alternativa al sistema educativo actual, porque para perder el tiempo no es necesario pasarse toda la mañana metido en un aula.

Y si la Inteligencia Artificial Generativa va a dejar obsoleto el trabajo del profesor, igual va a ocurrir con el de diseñador, redactor, administrativo, … y no solo eso, también del médico, ingeniero, abogado, … porque en estos momentos ya hay una startup que está pensando en cómo usar los últimos avances en Deep Learning para desarrollar una aplicación que haga el trabajo mejor que todos estos profesionales y de forma más eficiente y barata.

El trato humano, dicen, será lo que nos permita seguir ganándonos el jornal, pero ahora parece que está ocurriendo todo lo contrario, vas al médico y cuesta un triunfo que levante la mirada del ordenador porque en los 5 minutos que dura la cita apenas tiene tiempo para tomar notas y generar el informe correspondiente de la visita. Pero dejemos de criticar a los médicos que bastante tienen con adaptarse a la normativa que impone la administración y pensemos si nosotros también estamos manteniendo la misma actitud en relación con el uso que hacemos de la tecnología, por ejemplo cuando estamos hablando con otra persona y estamos más pendientes de las notificaciones del móvil que de lo que la otra persona quiere contarnos.

Aprende a usar la Inteligencia Artificial Generativa en tu trabajo

Durante mucho tiempo la Inteligencia Artificial ha sido una tecnología fuera de nuestro alcance, como mucho, podíamos ser meros observadores o usuarios pasivos, meros consumidores, o víctimas de los algoritmos de recomendación. Pero resultaba imposible o muy complicado que cualquier persona pudiera usar esta tecnología de manera proactiva, a no ser que fuera un programador. Con la llegada de las GenAI esto ha cambiado y se va a producir un vuelco enorme a la gran mayoría de los trabajos que se basan en el conocimiento y se realizan de manera digital.

Por esto es por lo que hemos lanzado el Curso de Inteligencia Artificial Generativa y ChatGPT del que vamos a realizar en breve la segunda edición y en cuya primera edición participaron 30 profesionales que no estaban dispuestos a que este tsunami les pasara por encima, más bien, están empezando a desarrollar las habilidades necesarias para subirse a la ola y que esto les proyecte hacia el futuro como mejores profesionales digitales.

Y también por esto es por lo que desde Futurizable llevamos ya un par de meses, desde la aparición de ChatGPT compartiendo el conocimiento que vamos adquiriendo al respecto de cómo la Inteligencia Artificial Generativa puede convertirse en la compañera ideal para maximizar el valor que aportamos con nuestro trabajo, ayudándonos a ser más productivos e incluso también más creativos. Así que hoy también queríamos compartir parte de este conocimiento, en concreto cómo hablar con ChatGPT para que nos ofrezca los mejores resultados y estas son nuestras recomendaciones al respecto.

Vamos a dividir las recomendaciones en 3 grupos, ya que en general son consejos para obtener buenos resultados, pero unos de ellos están relacionados con la necesidad de poner en contexto a la GenAI para que entienda bien lo que necesitamos, luego es importante que le demos instrucciones precisas para obtener resultados concretos y finalmente también es importante que tomemos una serie de precauciones al respecto de cómo enfocamos la interacción con la Inteligencia Artificial.

1. Ponle en contexto

Una de las cosas que mejor funciona para obtener buenos resultados con ChatGPT es que entienda bien el contexto que rodea a la conversación que vais a mantener y el trabajo que va a tener que realizar al respecto. Cuanta más información le puedas proporcionar sobre ello mucho mejor, hasta el punto de que puedes darle incluso documentación que utilice como referencia para realizar sus respuestas. Dicho esto, veamos qué cosas podemos hacer para aportar contexto a la conversación

  • Explícale de qué quieres hablar: antes de hacerle una pregunta dale pistas sobre el tema del que quieras tratar, así podrá ser más específico y podrá darte resultados más precisos. Por ejemplo puedes explicarle que quieres hacer un trabajo para entender cómo funciona determinado fenómeno físico, la razón por la que quieres hacer ese trabajo y el resultado que te gustaría obtener.
  • Dile quién eres: si le explicas quién eres, cuáles son tus necesidades, podrá darte una respuesta más personalizada y que se adapte mejor a tus necesidades. Por ejemplo puedes decir que eres profesor y vas a usar las respuestas para mejorar la forma en la que realizas tus clases o que eres un abogado y quieres usar las respuestas para explicarle algo a tus clientes.
  • Pídele que asuma un papel: cuando le pides que asuma un rol o papel concreto dentro de una conversación ofrece mejores resultados que si le preguntas directamente. Por ejemplo puedes decirle que es un médico que tiene que explicar el resultado de un análisis a uno de sus pacientes.
  • Dile que es un experto en la materia: una forma de lograr respuestas más precisas es decirle que es un experto en la materia de la que trata la pregunta, así ampliamos el conocimiento sobre el contexto de la conversación. Por ejemplo le puedes decir que es un experto en temas inmobiliarios y te tiene que asesorar sobre los contratos relacionados con la compra de una vivienda, la hipoteca y la reforma.
  • Cuéntale una historia: para que entienda mejor el contexto de lo que quieres hacer u obtener le puedes relatar cómo se te ha ocurrido y darle detalles de cómo se ha ido produciendo tu razonamiento al respecto. Por ejemplo dile en qué momento se te ocurrió una idea, qué es lo que estabas haciendo y qué es lo que hiciste a continuación para actuar al respecto. Luego hazle que forme parte de la historia como un protagonista que tiene una función.
  • Háblale de un público objetivo: si le pides que piense en un público objetivo concreto ofrecerá una respuesta que se adapte mejor al nivel de comprensión o las circunstancias de esas personas. Por ejemplo le puedes pedir que lo explique de manera sencilla como si fuera para que un niño pequeño lo pueda entender.
  • Explícale para qué quieres la respuesta: para mejorar la información de contexto puedes darle indicaciones al respecto de para qué vas a usar la respuesta y de esta podrás obtener resultados más relevantes. Por ejemplo puedes decirle que tienes que tomar una decisión en tu trabajo o que quieres presentar los resultados a un grupo determinado de personas para que tomen una decisión al respecto.
  • Dale pistas sobre la respuesta esperada: cuando tienes una idea de lo que te gustaría obtener con la respuesta le puedes orientar al respecto y decirle que esperas que sea una respuesta de determinado tipo. Por ejemplo puedes darle algunos datos o información que tú conozcas sobre el tema y así podrá saber mejor qué información esperas obtener por su parte.

2. Dale instrucciones

No olvidemos que ChatGPT aunque pueda mantener conversaciones totalmente fluidas como si fuera una persona, sigue siendo una máquina y correspondientemente nos ayudará a obtener mejores resultados si le proporcionamos instrucciones precisas al respecto de cómo queremos que nos aporte la respuesta.

  • Dile que estructure la respuesta: si necesitas que presente la respuesta de una forma determinada le puedes decir que lo haga en forma de lista, de pregunta y respuesta, de tabla, … Por ejemplo dile que te lo presente en forma de entrevista donde un periodista realiza preguntas a un experto en determinada materia.
  • Pídele que incluya algunas palabras: dile qué palabras te gustaría que aparezcan en la respuesta, así podrá tener en cuenta esas palabras y darte una respuesta más elaborada o que encaje mejor con tus necesidades. Por ejemplo puedes darle nombre de personas, de lugares o de objetos que quieres que formen parte de la respuesta y que los utilice en el contexto correcto.
  • Pídele una descripción: para ampliar la información que te proporciona en la respuesta le puedes pedir que describa algunos elementos de la misma, como puede ser el lugar en el que sucede o las personas que intervienen. Por ejemplo si quieres que te explique en qué consiste un descubrimiento le puedes pedir que describa las circunstancias que llevaron a realizarlo, las personas que intervinieron y el lugar en el que se produjo.
  • Dile cómo quieres que responda: le puedes pedir que responda usando determinado estilo de escritura, como puede ser en forma de poesía o imitando a la forma en la que escribe determinado autor. Por ejemplo puedes pedirle que use el estilo de un escritor famoso y construya la respuesta como si fuera uno de los personajes de uno de los libros de ese escrito.
  • Dale instrucciones precisas: dile la forma que quieres que tenga la respuesta, la estructura del texto en cuanto a extensión, formato de los párrafos, lenguaje utilizado Por ejemplo dile que quieres que aporte la respuesta en tres párrafos, el primero de introducción, el segundo de explicación y el tercero de conclusión, además del tamaño que debe tener cada párrafo.
  • Pídele que te haga preguntas: para mejorar el conocimiento que tiene sobre lo que necesitas puedes pedirle que te haga preguntas así podrás aportarle la información que necesita para darle una mejor respuesta. Por ejemplo le puedes decir que te pregunte sobre qué personas van a leer la respuesta o sobre qué uso vas a dar a la respuesta.
  • Hazle preguntas: utiliza pregunta del tipo qué, quién, cómo, donde, por qué, cuándo, … para conseguir respuestas más variadas. Por ejemplo le puedes pedir que redacte una nota de prensa de lanzamiento de un nuevo producto que tenga la estructura quién, qué, dónde y cómo.
  • Dile que haga un resumen: cuando hayas recibido una respuesta puedes pedir que haga un resumen y de esta forma tendrás una visión más concreta al respecto. Por ejemplo si le has pedido que haga un artículo para un blog, puedes pedirle que te haga un resumen para compartir ese artículo en las redes sociales.
  • Dile que amplíe la información: puedes obtener mejores resultados cuando le pides que amplíe la respuesta, así será más creativo a la hora de responder y tendrás más información al respecto Por ejemplo cuando te haya dado una respuesta sobre un tema, aprovecha parte de su respuesta para que amplíe información introduciendo esas palabras en la conversación.
  • Pídele que defienda la opinión contraria: cuando ya te ha dado una respuesta concreta puedes pedirle que aporte una idea contraria y de esta forma podrás tener una visión contraria. Por ejemplo si te ha explicado determinada teoría desde un punto de vista ideológico le puedes pedir que lo haga desde otro punto de vista para contrastar la visión inicial.
  • Pide un número de respuestas: enumera el número de respuestas que quieres obtener, así podrás lograr más resultados y que estos sean más variados. Por ejemplo para escribir un artículo de 10 razones para hacer determinada cosa o 10 consejos para una persona que quiere aprender sobre determinado tema.
  • Dale el formato de la respuesta: ChatGPT puede responder en formato texto, en formato de código fuente con diferentes lenguajes de programación, en diferentes idiomas o con estructuras de tablas. Por ejemplo puedes pedirle el código fuente para hacer una página web, para crear una macro de excel o para realizar un videojuego, además puedes decirle en qué lenguaje de programación debe hacerlo.
  • Pídele pros y contras: cuando quieres tomar una decisión suele pensarse en los pros y contras, pero muchas veces nos vemos influidos por nuestros sesgos. Contrastar esa opinión con el conocimiento condensado que tiene ChatGPT puede aportarnos un nuevo punto de vista. Por ejemplo si tienes que decidir entre vivir de alquiler o comprar una vivienda, puedes decirle que te aporte los pros y los contras en base a tus condicionantes particulares, el lugar en el que quieres vivir o el momento del mercado en el que nos encontramos

3. Piensa tú primero

Lanzarse a hacer preguntas o pedir cosas a ChatGPT es muy tentador, sobre todo cuando ves los resultados tan alucinantes que está compartiendo la gente de sus interacciones con la GenAI, pero una vez que hemos hecho las primeras pruebas vale la pena que dediquemos algo de tiempo a pensar de qué forma nos estamos acercando a esta tecnología, con qué mentalidad lo estamos haciendo y si tenemos que modificar nuestra actitud para que el resultado sea óptimo.

  • Considera que puede equivocarse: ya sabes que ChatGPT muchas veces se equivoca, lo cual hay que tenerlo en cuenta y si no estás convencido con lo que responde contrastarlo con otras fuentes. Por ejemplo cuando preguntamos cosas muy concretas sobre personas, lugares, fechas u otros datos suele cometer errores o inventarse cosas. Es importante aprender a encontrar estos fallos.
  • Haz preguntas sobre temas que conozcas: para sacarle el mayor provecho a ChatGPT empieza por hacer preguntas de temas que sabes un poco, no demasiado, ni muy poco, así podrás validar la calidad de las respuestas. Por ejemplo si estás aprendiendo sobre algo nuevo de lo que ya has leído algunas cosas y tienes unas ideas básicas, puedes pedirle que amplie ese conocimiento que has ido adquiriendo.
  • No preguntes de lo que no sabes nada: ya que el mayor riesgo de ChatGPT es que a veces se inventa cosas si no sabe qué responderte, es importante que aprendas a identificar estas situaciones. Por ejemplo si le pides una lista de personas referentes en una materia, si son personas que hablan o escriben en inglés suele acertar pero si le dices que hablen español se lo puede inventar si no tiene ese conocimiento.
  • Pregunta varias veces lo mismo: ya que cada vez que responde lo hace «pensando» de nuevo, puedes obtener diferentes respuestas si haces diferentes preguntas y de esta forma tener una respuesta más enriquecida. Por ejemplo si quieres que te explique un tema científico hazle varias veces la misma pregunta y al darte resultados diferentes es como si varias personas te lo estuvieran explicando y podrás entenderlo mejor.
  • Pídele una alternativa: a veces la respuesta que recibes puede no encajar con lo que buscas y al pedirle una alternativa sí que te ofrece el resultado esperado. Por ejemplo si le preguntas sobre creación de empresas puede responder sobre cosas anticuadas, como hacer un plan de negocio, pero si le pides una alternativa puede hablarte de opciones más actuales.
  • Insiste en que responda: a veces no va a responder a determinadas preguntas que le hagas por su política de uso, pero puedes insistir y muchas veces cambia de opinión y sí que responde a lo que necesitas. Por ejemplo cuando le pides que escriba el código de programación dice que no puede hacerlo, solo te explica cómo hacerlo, pero si insistes sí que acaba escribiendo el código.
  • Plantea alternativas: puedes plantearlo diferentes alternativas o escenarios de cara a obtener respuestas más variadas o enriquecidas. Por ejemplo si le has dicho que se ponga en el papel de determinada persona puedes decirle que luego se ponga en el papel de otra persona con unas características diferentes.
  • Utiliza palabras clave: puedes usar palabras clave como informe, análisis, revisión, protocolo, describe o recomienda para obtener mejores respuestas. Por ejemplo si quieres que utilice un lenguaje técnico y proporcione unas instrucciones precisas puedes decirle que escriba un protocolo de actuación ante determinada situación
  • Utiliza ejemplos: si le explicas lo que quieres obtener a través de ejemplos podrá entenderte mejor y darte mejores resultados. Por ejemplo puedes decirle que eres una persona que quiere explicar a otra cómo hacer determinada cosa o que tienes una función dentro de una empresa y tienes que cumplir con ella.
  • Evita las contradicciones: cuando mantengas una conversaciones tienes que mantener una línea argumental porque ChatGPT va a tender a responderte para satisfacer tu interés y si te contradices también te dará respuestas contradictorias. Por ejemplo cuando estás aprendiendo sobre un tema tienes que mantener el mismo tema dentro de la conversación para que vaya mejorando las respuestas en base al conocimiento que va adquiriendo sobre el tema que quieres tratar.
  • Se creativo: atrévete a hacerle preguntas originales, extrañas o controvertidas, nunca sabes qué te va a responder y puede que te sorprenda. Por ejemplo le puedes preguntar que imagine que viene de otro planeta y que se encuentra con determinada situación o que lleva mucho tiempo dormido para ver como reacciona ante algo nuevo.

¿Qué te han parecido estas recomendaciones? nos encantaría conocer tu opinión al respecto y también qué nos cuentes para qué estás usando ChatGPT.

Etiquetas: , , , , ,

Una vida con la Inteligencia Artificial

Publicado el 16 enero, 2023

Me encanta la idea de que el auge que estamos viviendo de la Inteligencia Artificial se base en el concepto de aprendizaje y no tanto en el de conocimiento. Que las máquinas estén logrando hacer cosas sorprendentes no se debe a que de por sí sean muy inteligentes o tengan un gran conocimiento, sino a su capacidad de aprender, y al igual que hacemos los humanos, de imitar. Esto derriba mucho mitos y debe hacernos pensar en la importancia que tiene ser un aprendiz frente a la que hemos dado durante mucho tiempo a ser un experto.

De hecho en el ámbito de la Inteligencia Artificial la competición durante décadas en lo que se refiere a desarrollo tecnológico se refiere, se produjo entre los que apostaban por el desarrollo de sistemas expertos, donde se diseñaba la máquina siguiendo las instrucciones que le proporcionaba un experto en determinada materia, frente a los que consideraron que era mejor replicar la forma en la que las personas aprendemos y la manera en la que funciona nuestro cerebro, gracias a la estructura de las redes neuronales.

Sin entrenamiento no hay victoria

Durante mucho tiempo la gente ha asociado la inteligencia con aquellas cosas que resultaban complicadas, por ejemplo la capacidad de cálculo, la memorización de grandes cantidades de información o el desarrollo de la ingeniería, sin embargo no era tan habitual decir que alguien era muy inteligente porque supiera hacer cosas complejas, como comunicar muy bien, tomar buenas decisiones o ser capaz de plasmar la esencia de la vida a través del arte. En lo primero, lo que normalmente consideramos como inteligencia, hacer cosas complicadas, hace décadas que la Inteligencia Artificial nos gana por goleada. Pero esto no era suficiente, porque la mayoría de las cosas que hacemos en la vida no son complicadas sino complejas, como socializar y  comunicarnos, desenvolvernos por el mundo y poner en marcha nuevos negocios.

Y aquí es donde se ha producido un gran salto en el último año con la irrupción de las Inteligencias Artificiales Generativas a partir de la invención de los transformers, que son una arquitectura de red neuronal utilizada para tareas de procesamiento del lenguaje natural, como el análisis de sentimientos, la traducción automática y la generación de texto. Una arquitectura introducida por Google en el artículo Attention Is All You Need en 2017.

Entender de dónde venimos también puede ayudarnos a ser conscientes de la relevancia de lo que está ocurriendo en estos momentos y sobre todo a ser conscientes de que el entrenamiento que ha estado haciendo la Inteligencia Artificial en los últimos años comienza ahora a ofrecer las primeras victorias:

  • Filtros de SPAM: probablemente la primera gran aplicación del aprendizaje profundo que la mayoría pudimos disfrutar, aunque muchas veces sin ser conscientes de ello, pero que sin duda es algo de lo que tenemos que estar muy agradecidos por el gran valor que nos aporta. Un ejemplo de la alta especialización con la que comenzó a trabajar la Inteligencia Artificial y un caso con el que compararse de cara a la gran evolución que se ha producido desde entonces.
  • Traducciones automáticas: la típica actividad en la que de primeras te encuentras con mucha incredulidad u oposición, pero que poco a poco va demostrando la gran efectividad que puede ofrecer la Inteligencia Artificial cuando realiza funciones muy específicas. Y precisamente esa misma oposición que vimos hacia las traducciones hace pocos años la estamos viendo repetida ahora con herramientas de generación de texto como ChatGPT.
  • Algoritmos de recomendación: el gran beneficio que muchas empresas, como por ejemplo Amazon o Netflix han podido obtener gracias a los sistemas de recomendación de productos o contenidos, ha incentivado enormemente la inversión en este tipo de tecnologías, lo cual por otro lado ha abierto la puerta a determinadas problemáticas como el excesivo control que estas empresas han llegado a tener sobre los intereses de sus clientes.
  • Asistentes virtuales: con el furor que estamos viendo tras la presentación de ChatGPT, el trabajo que hacían los asistentes virtuales, como Siri y Alexa, ha quedado eclipsado. Quizás una razón de la que ahora estamos tan sorprendidos por la capacidad de ChatGPT se puede deber a la gran diferencia que muestra respecto de los modelos anteriores. En todo caso siempre es importante ser conscientes del valor que tenía que estos asistentes virtuales fueran capaces de entender lo que les decimos , aunque luego no pudieran hacer mucho al respecto.
  • Sugerencia de textos: cada vez que Google iba introduciendo más utilidades en Gmail, como los filtros de spam, el traductor automático y luego la sugerencia de textos, nos fuimos dando cuenta del valor que podía tener la Inteligencia Artificial Generativa, pero las dosis de utilidad que nos iban ofreciendo eran tan pequeñas que ahora lo de ChatGPT sí que es una verdadera explosión de utilidad en relación con las iniciativas anteriores.
  • Conducción autónoma: cambiando totalmente de tercio, dejamos el reconocimiento de texto y de voz para tratar el reconocimiento de imagen y pensar en lo importante que es que podamos depositar nuestra confianza en una tecnología que toma decisiones por nosotros a la hora de conducir un vehículo, con el riesgo que esto supone y sin embargo se haya comprobado que precisamente resulta más seguro que cuando conducimos exclusivamente las personas.

Matemáticas + Informática + Internet = Inteligencia Artificial

También resulta interesante pensar en que ha sido la socialización digital, la que se ha producido a través de redes sociales, blogs, foros, wikis, … lo que ha permitido que podamos contar con los datos, que son el último eslabón necesario en la cadena del desarrollo de la Inteligencia Artificial,  lo cual también coincide con la forma en la que se produce el aprendizaje humano: en sociedad y a través de las interacciones con otras personas.

Podíamos tener las matemáticas con algoritmos de redes neuronales desarrollados por gente muy inteligente, podíamos tener infraestructuras tecnológicas enormes, creadas con la inteligencia ingenieril del ser humano, pero no ha sido hasta que hemos sido capaces de añadir a esta tecnología el componente social que proporcionan los datos generados por las propias personas a través de su actividad en la red,  que no hemos podido decir que contamos con una Inteligencia Artificial que resuelve necesidades genéricas de las personas y no solo aspectos concretos de su actividad.

Attention Is All You Need

Aprovechando el titular del artículo sobre los transformers vamos a intentar visualizar escenarios futuros para nuestra sociedad en base a la evolución que está teniendo la Inteligencia Artificial:

  1. Se cumplen las predicciones de la ciencia ficción: esperemos que no ocurra lo de Terminator, pero quizás es más probable que vayamos a algo parecido a lo que nos muestra la película WALL-E, cuyo nombre precisamente ha servido de inspiración a DALL-E, que es el primer modelo de generación de imágenes basado en redes neuronales que conocimos de OpenAI y también a otro más reciente llamado VALL-E desarrollado por Microsoft. Ante este posible escenario, donde las máquinas toman tanto protagonismo que nos dejan a los seres humanos en la cuneta, es muy importante que estemos preparados para ir llevando la iniciativa en cada momento, como por ejemplo ahora que ChatGPT puede hacer muchas cosas que hace poco parecerían ciencia ficción. Por lo tanto deberíamos prestar mucha atención a lo que está sucediendo y usar estas innovaciones todo lo que sea posible, porque eso nos generará una ventaja frente a los que se queden impasibles viendo llegar el tsunami de la Inteligencia Artificial sin hacer nada al respecto.
  2. La Inteligencia Artificial nos ayuda a crear un mundo mejor: con ChatGPT tenemos dos opciones, dedicarnos a inundar Internet con refritos de contenido tremendamente optimizados para el SEO, o usar todo su potencial para solucionar los Big F**king Problems que enfrenta la humanidad. Por eso lo primero que hemos hecho nosotros ha sido organizar un grupo de trabajo entre leinners y sngulares en el que buscar oportunidades de proyectos que se puedan desarrollar con esta tecnología y también lanzar el curso de GenAI y ChatGPT con el que queremos que cada vez más profesionales aprendan a usar esta tecnología para lograr un mayor impacto con el trabajo que realizan cada día. A este respecto la Inteligencia Artificial debería ayudarnos a ser más productivos y a las empresas a ser más competitivas, para poder ofrecer mejores productos y servicios a la sociedad, lo cual nos permita mantener el progreso que la digitalización nos ha proporcionado en las últimas décadas en materia de salud, educación, energía, alimentación, cultura, …

Etiquetas: , , ,

Se buscan startups de Inteligencia Artificial

Publicado el 11 abril, 2022

Tras la realización de los eventos FUTURO Descentralizado, FUTURO Virtual y FUTURO Cuántico, ya estamos preparando el próximo evento de este ciclo que estará dedicado a la Inteligencia Artificial. Estamos muy contentos por la buena acogida que han tenido estos eventos, tanto a nivel de ponentes como de participantes, lo cual puedes comprobar en el hashtag de Twitter #FUTUROcuantico.

En los tres eventos que hemos realizado del ciclo FUTURO hemos tenido una importante participación de startups, tanto en el foro de inversión como en el resto de actividades, ya que pensamos que una parte relevante de la innovación proviene de ellas. Por esto de cara al próximo evento queremos aprovechar para hacer un llamamiento a la comunidad de Futurizable para que nos recomiende startups dedicadas a la Inteligencia Artificial para ofrecerles participar en el evento.

¿Conoces startups de Inteligencia Artificial? Envía un correo a esta dirección con el nombre de la startup y a ser posible los datos de una persona de contacto para ponernos en contacto con ellos e invitarles a participar en FUTURO Inteligente, el encuentro profesional sobre el impacto de la Inteligencia Artificial a nivel tecnológico, económico y social.

FUTURO Inteligente se realizará el 11 de mayo en Madrid y contará con ponentes de primer nivel que trabajan en el desarrollo de las diferentes tecnologías a las que denominamos Inteligencia Artificial, como son el machine learning y el deep learning, en el marco de aspectos como el procesamiento del lenguaje, la visión artificial, la automatización y otros muchos.

 

Etiquetas: , , , ,

La caja de herramientas con la que vamos a construir el futuro

Publicado el 28 mayo, 2017

Es interesante reflexionar sobre cómo ha evolucionado la tecnología gracias al uso de herramientas creadas por el hombre. Desde las primeras hachas de piedra utilizadas en la prehistoria, hasta los sofisticados robots con los que contamos en la actualidad. Si no hubiese sido por esas primeras personas que decidieron usar instrumentos para mejorar en sus actividades o un elemento natural como el fuego en su propio beneficio, la humanidad no habría evolucionado hasta la situación actual. Del mismo modo ha sucedido con invenciones como la imprenta y la máquina de vapor, que han ayudado a la humanidad a evolucionar hasta el nivel de sofisticación actual, que se sustenta sobre tecnologías más modernas como la computación y las telecomunicaciones. De esta forma cada tecnología de la que ahora disponemos, se sustenta a su vez en otras tecnologías anteriores, cada una de las cuales ha permitido resolver las distintas dificultades que iban apareciendo para el desarrollo de las nuevas innovaciones. De esta forma sería difícil imaginarse cómo podría haber sido la informática que todos conocemos si anteriormente no hubieran existido otras tecnologías como la imprenta, la máquina de escribir o la calculadora, entre otras muchas de las que ha ido tomando inspiración hasta su desarrollo actual. Sigue leyendo -> La caja de herramientas con la que vamos a construir el futuro

Etiquetas: , ,

Conoce a Santiago Bilinkis autor del libro ‘Pasaje al Futuro’

Publicado el 27 enero, 2017

El libro Pasaje al futuro del emprendedor argentino Santiago Bilinkis sirvió de inspiración para la puesta en marcha de Futurizable, con la perspectiva de que la innovación tecnológica se estaba acelerando y valía la pena darle a conocer para contribuir a su desarrollo. Es por esto que hemos decidido que una de las primeras entrevistas a personajes relevantes del ecosistema de innovación a nivel mundial se la teníamos que hacer a Santiago Bilinkis con el objetivo de que nos transmita su visión sobre el futuro.

¿Sabías que la primera persona capaz de vivir mil años probablemente ya nació? ¿Y que no está tan lejos la posibilidad de reemplazar un órgano
enfermo por uno artificial? Como ves, tu vida está a punto de cambiar. La aceleración del avance tecnológico nos ubica hoy en un punto bisagra de la historia de la humanidad; generando, en pocos años, una transformación mucho más profunda que la producida en los últimos cinco milenios.

Sigue leyendo -> Conoce a Santiago Bilinkis autor del libro ‘Pasaje al Futuro’

Etiquetas: ,