Inteligencia Artificial archivos - Página 2 de 5 - Futurizable | Sngular
Enlaces rápidos
  • Blockchain
  • Big Data
  • Educación
  • Robótica
  • Espacio

Publicaciones en Inteligencia Artificial

Pausar los grandes experimentos de Inteligencia Artificial

Publicado el 03 abril, 2023

Qué momento tan apasionante para dedicarse a la tecnología, donde cada día queda más claro que con las innovaciones en Inteligencia Artificial se están repitiendo los momentos equivalentes a la década de los 80 cuando se popularizó la informática y de los 90 cuando ocurrió lo propio con Internet.

Aunque estos momentos tan estimulantes no están libres de polémica, como la que ha surgido esta semana con la publicación de la carta abierta Pause Giant AI Experiments, firmada entre otros por grandes figuras tecnológicas como Elon Musk y Steve Wozniak, en la que se pretende que se realice una pausa para reflexionar al respecto de los peligros que conlleva la Inteligencia Artificial y si insta a los Estados a regular esta tecnología.

Lo que acabará ocurriendo te lo puedes imaginar, se harán leyes, muchas de ellas lo único que lograrán es perjudicar a los usuarios, como ha ocurrido por ejemplo con la ley de cookies, pero lo que realmente pide la gente no se logrará y solo se habrá perdido mucho tiempo y dinero público en el proceso.

¿Qué vamos a hacer el nuevo ruido informativo que se va a generar con la Inteligencia Artificial?

Partiendo de la base de que ruido informativo y desinformación ha existido siempre, solo hay que remontarse a la historia de Pedro y el lobo, lo que parece claro es que ahora esto se va a intensificar, al menos al ritmo de lo que ya lo venía haciendo desde la llegada de los medios de comunicación masiva. Lo que puede ocurrir ahora es que la bola puede hacerse mucho más grande cuando la Inteligencia Artificial se alimente de basura informativa para generar aún más basura informativa. Lo que ha ocurrido con el SEO y el clickbait es buena prueba de ello. Además también parece claro que en este caso el fuego no puede apagarse con más fuego y por mucho que nos empeñemos, cada vez que se desarrolle una IA capaz de detectar el contenido creado por IA alguien inventará otra IA capaz de engañar a la otra IA.

Así que me temo que no queda otro remedio que aceptar que no podremos dar como cierto o seguro nada de lo que nos encontremos en Internet y parte de nuestro trabajo será aprender a tomar decisiones en esa situación de incertidumbre, lo cual para algunos puede sonar terrible pero para los que tengan el sentido crítico bien desarrollado esto no supondrá un problema. Si partimos de la base de que la realidad no existe, ¿por qué tenemos que empeñarnos en tener certeza absoluta de si un contenido ha sido realizado realmente por una persona o si una noticia es realmente cierta?. Aprender a tomar decisiones en una situación de alta incertidumbre resultará de gran valor en el futuro, pero esto no es nada nuevo, en la prehistoria cuando sabíamos muy poco de todo lo que nos rodeaba nuestra especie también fue capaz de adaptarse y sobrevivir.

¿Qué va a ocurrir con la gente que no quiera o no pueda sumarse a la revolución de la Inteligencia Artificial?

Cada vez que surge una nueva tecnología que puede cambiarlo todo aparece gente que intenta oponerse a ese progreso y curiosamente esa gente suele lograr bastante protagonismo en los medios de comunicación, que muchas veces también parecen oponerse a esas tecnologías, porque suponen el enésimo ataque a la línea de flotación de su modelo de negocio tradicional.

Pero más allá de la gente que se oponga ideológicamente al desarrollo de estas tecnologías, también nos vamos a encontrar con muchas personas que no tienen capacidad para adaptarse a ellas, no disponen de los recursos necesarios o simplemente se sienten desbordados ante tanto avance y no quieren hacer otro cambio más en sus vidas para adaptarse al ritmo que les impone la sociedad.

La buena noticia aquí es que muchos de los avances que se produzcan gracias a la Inteligencia Artificial también beneficiarán a aquellos que se opongan a su desarrollo, porque como estamos viendo, aunque el protagonismo en estos momentos lo tenga las aplicaciones dirigidas al uso por parte de particulares, también se sigue avanzando muchísimo en el desarrollo de aplicaciones enfocadas a ámbitos como la salud, el transporte, la sostenibilidad, …

Y sobre todo, donde la sociedad en su conjunto puede salir beneficiada, es si realmente esta tecnología logra incrementar la productividad a nivel mundial, un tema que a nivel económico resulta cada vez más preocupante sobre todo en occidente, donde la productividad se ha reducido mucho en las últimas décadas. Lo que ocurre es que aquí no queda otro remedio que hablar de renta básica universal, algo con lo que de hecho son partidarios en OpenAI.

El problema de la renta básica universal es que no soluciona precisamente los problemas que vivimos en occidente, especialmente los relacionados con la convivencia y el bienestar psicológico. Porque no cabe duda de que poder ofrecer esa renta a las personas que se encuentran en situación de pobreza podría resultarles muy beneficioso, pero a otros muchos que ya disponen de los recursos básicos para sobrevivir, pero aún así no son felices, tampoco les va a cambiar la vida.

Por lo tanto mi opinión es que los avances a nivel tecnológico deberían ayudarnos a avanzar también como sociedad, especialmente en lo que a valores y cultura se refiere, aprovechando para recuperar muchas de las actividades que hemos dejado de hacer por falta de tiempo, al tener que dedicar todo el día a trabajar y que son las cosas que precisamente muchas veces comienzan a hacer los jubilados: aprender, cocinar, pasear, cultivar, leer, dormir, pintar, meditar, … y sobre todo socializar.

¿Cómo vamos a protegernos de los malos usos que se puedan hacer de la Inteligencia Artificial?

La historia nos enseña que cualquier tecnología puede ser utilizada para hacer el mal y que en algún momento algún descerebrado hará alguna barbaridad que perjudicará a muchísimas personas. La duda aquí es si el resultado final será a favor de la humanidad o por el contrario, como algunos vaticinan, la Inteligencia Artificial llegará a tal grado de desarrollo que nos acabará dominando y haciendo con nosotros lo que le plazca.

Pero hasta que ese momento llegue deberíamos concienciarnos de la posibilidad de unos usos más «humanos» de esta tecnología para hacer el mal, por ejemplo saber en que ahora además de armas en manos de desalmados, también habrá armas programadas por desalmados.

Lo que ocurre es que si queremos que esta tecnología nos ayude realmente a resolver los retos que enfrenta la humanidad, por ejemplo a nivel de salud y sostenibilidad, necesitamos que sea lo más libre y accesible posible, por lo cual todo lo que suponga prohibiciones y restricciones jugará en nuestra contra en general impidiendo que no solo se pueda usar para hacer el mal, sino sobre todo para hacer el bien.

¿Qué vamos a hacer con todo el nuevo tiempo disponible que nos regale la Inteligencia Artificial?

Recientemente Ángel Alba, Fundador y CEO Innolandia.es, ha escrito un artículo muy interesante sobre 5 procesos de innovación donde aplicar ChatGPT en el que explica que actualmente vivimos en un hype de herramientas de Inteligencia Artificial Generativa, sin embargo, donde más podemos sacarle partido es explorando y sistematizando casos de uso específicos. No se trata tanto la herramienta sino la utilidad de la misma.

En el caso de la innovación, esta tecnología no va a sustituir a los profesionales de la innovación, sino que los “va a aumentar”. Va a permitirnos acelerar procesos de innovación, analizando grandes cantidades de insights, adoptar otros puntos de vista que no pensábamos o explorar nuevas oportunidades.

Es lo que en Innolandia llaman “Innovación Aumentada”: la capacidad de colaborar entre personas e inteligencia artificial para la generación, desarrollo y puesta en marcha de nuevos productos, servicios o procesos de negocio.

Más allá de la generación de ideas, podemos utilizar la GenAI en 5 procesos clave de innovación:

  • Para planificar la innovación, definiendo objetivos, tesis y oportunidades.
  • Para todo el proceso de ideación, por ejemplo aplicándolo en todas las fases de design thinking, desde explorar problemas, generar ideas, evaluarlas o incluso prototipar.
  • Para gestionar proyectos, aplicando Lean start-up (experimentos de validación), desarrollo tecnológico o incluso hacer seguimiento.
  • Para diseñar y gestionar el sistema de innovación, proponiendo criterios de embudos, KPIs o analizando informes de vigilancia tecnológica.
  • Para construir cultura innovadora, creando contenidos o formaciones.

Frente a la avalancha de nuevas herramientas que salen cada día, creo que es mucho más efectivo especializarse en aplicaciones generalistas y adaptarlas a las necesidades de cada caso, siempre aplicando el pensamiento crítico. Reducimos la curva de aprendizaje y obtendremos resultados antes.

Esto es lo que ayudamos a hacer a nuestros clientes y enseñamos en nuestro curso de Innovación Aumentada: Inteligencia Artificial para gestores de la innovación. Un curso vertical enfocado a casos de uso específicos de nuestra área.

¿Cómo estás usando actualmente ChatGPT en tu trabajo de consultoría de innovación?

La verdad es que la idea de aplicar la IA en nuestros proyectos viene de hace tiempo. Lo veía como un consultor virtual que eliminara nuestra dependencia de las horas. Creo que fue en 2019 cuando hicimos un primer piloto de un chatbot para gestores de innovación, con contenido específico, junto a la start-up Zappiens, pero los clientes no lo usaban.

Así que cuando mi amiga Ana Poveda me habló de una herramienta para escribir posts y newsletters en lenguaje natural en primavera de 2022, empecé a cacharrear. Escribí mi primer post con GPT3 en julio de 2022 y a comentar con otros colegas, como Néstor Guerra, la potencia que tenía esto. A partir de ahí nos planteamos ¿cómo podemos aplicar esta técnica en los proyectos?

Así que como siempre hacemos con cualquier herramienta, primero empezamos en nuestra propia empresa y nos aplicamos nuestra propia medicina. Una vez que aprendimos nosotros, lo llevamos a nuestros clientes. La primera aplicación que hicimos fue para priorizar una serie de iniciativas de innovación en un cliente, en diciembre 2022.

Recuerdo que en el proceso de aprendizaje autodidacta había diseñado un prompt en el playground de GPT3 sobre una matriz impacto – esfuerzo, con 4 cuadrantes, a base de tutoriales y prueba-error. Lo tenía de back-up en la sesión con el cliente.
En el taller con el cliente, empezamos a debatir la primera iniciativa, tardamos 10 minutos en clasificarla, teníamos 35 y yo un AVE de vuelta a Alicante. Así que proyecté el prompt en la pantalla, metimos las iniciativas y en 10 segundos estaban clasificadas. Las revisamos una a una y en el 90% de las clasificaciones el equipo esta a de acuerdo. En 2 horas hicimos el trabajo que podía haber tardado 6 horas.

A partir de aquí, hemos ido troceando las actividades de innovación para construir casos de uso específicos: mapas de empatía, business model canvas, planes de proyectos, diseño de KPIs, propuestas de comités de innovación, etc…

¿Puedes contarnos algún ejemplo de algún proyecto concreto en el que lo estés usando?

Desde diciembre aplicamos la GenAI en todos los proyectos que hacemos con clientes. Cada día descubrimos un caso de uso nuevo, en función del viaje por el que pasa cada equipo del cliente.

Un caso que me gustó mucho fue diseñar un programa de intraemprendimiento para una gran empresa agroquímica, con la ayuda de ChatGPT. Lo que hicimos fue dividir el proceso de diseño en pequeñas actividades: priorizar los vectores de innovación, generar retos, crear los criterios de selección de ideas, diseñar el formulario de registro, definir el plan de comunicación y redactar los copys de los mensajes. Todo esto en un día completo con un equipo de 3 personas y 1 de Innolandia.

Otro caso donde le veo también mucha potencia es en resumir información. Aunque ChatGPT aún no es capaz de leer links, le hemos copiado el texto de informes de vigilancia tecnológica para resumirlos en incluso locutarlos (con otra aplicación) para facilitar el consumo y la toma de decisiones.

Finalmente otro ejemplo que estamos afinando es utilizar DALL·E para una primera versión de los prototipos de producto o servicio. Antes pedíamos a los equipos que hicieran un dibujo en una servilleta, para pasar la idea del post-it al mundo físico. Ahora podemos empezar a trabajar con DALL·E. Todavía no lo hacemos con MidJourney, porque a estos niveles quizás es poco “user-friendly”.

Mi aprendizaje durante estos meses es que debemos trocear las actividades de innovación para crear casos de uso específicos, más que ir a hacer preguntas más genéricas del tipo “dame ideas sobre tal cosa”.

¿Qué problemas observas actualmente en esta tecnología en relación con su uso a nivel de innovación?

Yo creo que muchas personas están todavía deslumbradas por el resultado pero sin acabar de ver la utilidad, porque no saben cómo hacerlo. Cuando preguntamos a nuestros clientes, que suelen ser gestores o directivos de innovación, quién tiene experiencia utilizando estas herramientas, aproximadamente el 50% nos dice que las ha probado. Y de ese 50%, el 90% sólo ha probado ChatGPT y para jugar un rato.

Para entender la utilidad real y sacarle el máximo provecho, creo que hacen falta tres cosas:

  • Primero entender muy bien el proceso de innovación y dividirlo en pequeños pasos. Porque ahí es donde la GenAI te podrá ayudar. No en grandes procesos o preguntas generalistas, sino en pequeños pasos. Dividir un proceso de design thinking en crear el reto, generar arquetipo, diseñar una entrevista de problema, analizar los insights, etc, etc… Si no conoces bien tu proceso, será complicado que construyas casos de uso potentes.
  • Segundo, aprender a preguntar. En el equipo de Innolandia no somos informáticos, no sabemos programar. Pero estamos aprendiendo a desarrollar prompts en lenguaje natural muy estructurados, porque la diferencia entre darle una instrucción simple (un zero prompt) a un prompt con contexto y ejemplos es abismal. Por ejemplo, tenemos una plantilla de prompt para evaluar ideas en GPT3 que incluye los criterios de encaje estratégico, deseabilidad, factibilidad y viabilidad y donde cada criterio puede tomar 3 valores. Lo que hemos hecho ha sido pasar nuestro Excel de evaluación de ideas a GPT3 para que nos ayude. Y eso es mucho más que pedirle a ChatGPT que nos evalúe las ideas sin más.
  • Y tercero, aplicar el pensamiento crítico. Como decía Enrique Dans, el trabajo de los profesionales del conocimiento (y los gestores de la innovación lo somos) no es realizar tareas repetitivas sino aplicar el pensamiento crítico. Puedes pedirle a ChatGPT que te analice 20 test de producto y obtener patrones, pero ¿tienen sentido? ¿están sesgados? Eso es trabajo humano.

¿Cómo piensas que puede evolucionar esta tecnología y cómo crees que puede ser el impacto futuro en tu actividad?

Te reconozco que estoy desbordado por todas las noticias nuevas que salen cada día y soy incapaz de seguir el ritmo de locura. Pero lo que tengo claro es que, como cualquier tecnología, la GenAI sólo tendrá éxito si soluciona un problema real de las personas, se construyen casos de uso y modelos de negocio que permitan explotarlo. Ejemplos de tecnologías con hype muy alto y que luego no han llegado a nada hay infinitas.

A nivel de mi actividad de consultoría de innovación o el trabajo de los propios equipos de innovación creo que tiene muchísimo potencial. El problema que resuelve está claro: ayudarnos a innovar más rápido, con la gestión de volúmenes importantes de datos o tareas que suponen gran cantidad de trabajo. Un caso que nos ha pasado recientemente es que ayudamos a un cliente de alimentación a hacer un test de 9 productos, con 18 betatesters cada uno. Total 162 mini test. Imagina al menos 4 insights por test, nos vamos a más de 500 insights.

Antes de GPT, nos teníamos que encerrar con un Excel o pasar a mano las notas a 500 post-its, pegarlos en la pared y hacer el ejercicio de mural del cliente, para encontrar patrones. En este caso, utilizamos Super.ai, para pasar el texto manuscrito a digital y ChatGPT para identificar patrones. Luego los revisamos, pero hicimos en 1 mañana el trabajo que antes tardábamos 2 días con varias personas.

Otra opción con un cliente fue aplicando la estrategia del océano azul. Mientras que un equipo de 5 personas generaba una caso, con ChatGPT creamos 10. El doble, en el mismo tiempo. Y con algunas opciones muy interesantes, que no se le había ocurrido a nadie del equipo.

Ahorraremos tiempo de tareas, que deberemos dedicarlo a pensar cómo hacer preguntas y a validar o modificar la información que obtengamos.

Etiquetas: , ,

¿Es Tesla la nueva Apple?

Publicado el 30 marzo, 2023

Con la mala fama que se está granjeando Elon Musk desde que ha comprado Twitter cualquiera se pone ahora a defender la tesis de inversión de Tesla, pero lo cierto es que tras la gran penalización en bolsa sufrida en el último año, cada vez más inversores consideran que la empresa tiene un gran potencial de revalorización, especialmente tras la presentación de su nueva plataforma de fabricación de coches. En todo caso, lo importante de esta tesis de inversión es que Tesla es mucho más que un fabricante de coches, igual que Apple es mucho más que un fabricante de móviles, de ahí la comparación que venimos a hacer en este artículo.

A saber:

  • Fabricante de software: la experiencia de usuario de los dispositivos de Apple no sería la misma si se tratara sólo de una cuestión de hardware. Sólo pensar en correr windows en un iPhone o en un Mac me produce urticaria. Del mismo modo la gran apuesta de Tesla, más allá de los vehículos eléctricos es la conducción autónoma y todo lo que conlleva de cara al uso de la Inteligencia Artificial llevada al mundo real, no solo a nivel de transporte sino también de fabricación.
  • Integración vertical: cuando construyes un coches desde cero, remontándote a los primeros principios, sin dar nada por sentado, entiendes la necesidad de tener el mayor control posible sobre todo el proceso de fabricación de tus productos, lo cual como te puedes imaginar es una de las razones por la que Tesla ha seguido incrementando sus ventas de manera exponencial durante la crisis de las materias primas y los microchips, frente al resto de empresas del sector que se han visto fatalmente afectadas en este periodo.
  • Modelo de suscripción: cómo de importante será para Tesla el negocio como proveedor de energía, seguros, conectividad, robotaxi y contenidos, lo veremos con el tiempo, pero todo apunta a que podrá replicar este modelo de negocio que tanto beneficio le ha reportado a Apple por la suscripción a servicios como el cloud, las apps y los pagos, pero en este caso llevándolo de nuevo al sector del transporte e incluso del hogar.
  • Robótica: aquí es dónde encontramos la apuesta más arriesgada de la compañía y donde menos similitudes observamos respecto de la estrategia de Apple, aunque si la jugada del robot acaba funcionando, se amplifica tanto el ámbito de negocio de Tesla que es difícil de imaginar hasta dónde se podría llegar. Pensemos en la combinación de máquina y software que ya le está funcionado en las carreteras y en las fábricas, si podría llevarse también con éxito a los hogares y todo tipo de actividades empresariales.

Integración vertical

¿Cómo de importante es la integración vertical para el futuro éxito de Tesla? quizás podríamos fijarnos en cómo de relevante ha sido para empresas como Amazon, Google y Microsoft construir su propio servicio de Cloud Computing, que además de convertirse en negocios muy rentables comienzan por ofrecer una estabilidad enorme a la hora de prestar los servicios originales prestados por estas empresas.

Lo que queda claro cuando estudias la forma en la que trabaja Tesla es que diseñar sus productos desde los primeros principios le lleva a ser especialmente cuidadoso con los pequeños detalles, hasta al punto de no poder permitir que otros, que pueden tener una cultura de trabajo muy diferente, pongan en peligro su estrategia. Entonces es cuando te das cuenta de que esta forma de hacer las cosas tiene todo el sentido y es precisamente por lo que los clientes e inversores de la empresa se convierten en verdaderos fanáticos de la marca.

Quizás uno de los ejemplos más representativos del enfoque de Tesla hacia la integración vertical es que la empresa ha llegado al punto de comenzar a fabricar sus propios microchips para potenciar la Inteligencia Artificial, en concreto el Tesla D1 diseñado con tecnología de siete nanómetros, capaz de albergar hasta 50.000 millones de transistores en un tamaño de 645 mm2 y con una potencia de hasta 362 TFLOPs. Y por si esto fuera poco, también se está desarrollando el supercomputador Tesla Dojo que está diseñado para mejorar el rendimiento y la capacidad de la inteligencia artificial utilizada en los vehículos, específicamente en el sistema de conducción autónoma.

Comunicaciones vs Energía

¿Podría Tesla disrumpir el sector de la energía del mismo modo que ha hecho Apple con el de las comunicaciones? quizás no parezca que Apple haya sido la empresa más disruptiva del sector de las comunicaciones y la informática, pero si tenemos en cuenta su capitalización bursátil, superior a los 2,5 trillones de dólares, está claro que el mercado así lo valora. Y no solo eso, a lo largo de los años hemos visto cómo el resto de empresas de electrónica imitaban de manera descarada todo lo que hacía Apple, al menos a nivel de diseño y muchas veces también en lo relativo al lanzamiento de nuevos productos.

Entonces, en lo que al sector de la energía se refiere tenemos a una empresa que está dispuesta a reinventar un sector tan importante para la economía como es el de la energía y no solo por una cuestión de negocio, sino con el convencimiento que queda de manifiesto en su propósito de contribuir a acelerar la transición mundial hacia la energía sostenible. Prueba de ella es que la empresa no solo se ha preocupado por fabricar las baterías de los coches o los cargadores para las casas, sino que está haciendo importantes avances para el desarrollo de infraestructuras de energías renovables a gran escala.

Reinventando el concepto de coche

Pensar desde los primeros principios no solo te lleva a reconsiderar cómo funcionan las cosas sino a pensar qué otras utilidades se pueden ofrecer en base a las necesidades específicas de tus usuarios. De esta forma cuando decides realizar una apuesta tan importante por la conducción autónoma, el siguiente paso en el camino es ofrecer opciones para el tiempo que pasará a estar disponible y que antes era dedicado exclusivamente a la conducción. Esto abre el camino a la realización de actividades de ocio y productividad, para lo cual cada vez iremos viendo más opciones en los vehículos de Tesla.

Por otro lado tenemos el tiempo disponible del vehículo cuando no está siendo usado por su propietario, que suele ser la mayoría del tiempo, lo cual permite pensar en nuevos modelos de negocio, para un producto que hasta ahora había sido considerado exclusivamente como un gasto para la mayoría de la población, pero que en el futuro podrá ofrecer ingresos pasivos a los propietarios que deciden poner su Tesla a disposición de la red de robotaxi.

Una vez que hemos comprobado que la economía colaborativa tiene tan buena acogida por parte de los usuarios, si a esto se le añade el componente de automatización, el interés del mercado podría ser aún mayor.

La mejor publicidad la hacen los clientes

Volviendo a la comparación entre Apple y Tesla, además del hecho de haber tenido un CEO bastante polémico en su forma de relacionarse con otras personas, en lo que coinciden ambas empresas es en que la mejor publicidad la hacen con el propio diseño y características de sus productos, o incluso en la presentación estos, que son seguidas por millones de personas, sin tener que recurrir a costosas campañas de marketing.

Lograr que tus clientes se conviertan en tus principales embajadores es un privilegio al alcance de muy pocas empresas y en el caso de Tesla pone de manifiesto muchos de los aspectos en los que la empresa ha puesto el foco en los últimos años, llegando a convertirse en el líder del mercado en lo relativo a satisfacción de sus clientes, capitalización de mercado y en el crecimiento de sus ventas. ¿Llegaremos a ver también cómo todo esto le lleva a convertirse en la empresa que más vehículos vende en todo el mundo? sin duda el lanzamiento del nuevo vehículo de la marca, con un precio más asequible, debería contribuir a lograr este hito para una empresa tan innovadora.

La tesis de inversión de Tesla

Esto no es una recomendación de inversión, pero si tienes unos ahorros y consideras que no vas a necesitar ese dinero para nada urgente durante mucho tiempo, tendrías que realizar las siguientes consideraciones antes de invertir en Tesla.

  1. Largo plazo: las caídas del mercado durante 2022 son muy representativas de la gran volatilidad que hay en los mercados financieros y está comprobado que la mejor forma de protegerse de esto, más allá de no invertir o usar sofisticados productos financieros que tienen otros riesgos asociados, es invertir a largo plazo, por ejemplo 10 años. Al ritmo de construcción de nuevas fábricas, de mejoras en la fabricación, de adopción del vehículo eléctrico, de uso de la conducción autónoma, de crecimiento en el desarrollo de infraestructuras energéticas, de lanzamiento de nuevos productos, … ¿Cuánto puede estar vendiendo Tesla dentro de 10 años?
  2. Inteligencia Artificial: con el auge que estamos viviendo en estos momentos de la Inteligencia Artificial, nos encontramos con que Tesla es la empresa más avanzada en aplicar la Inteligencia Artificial en el mundo físico, por ahora sólo en los vehículos, pero con el tiempo veremos cómo esto se va trasladando a otras actividades industriales y comerciales gracias al desarrollo de la robótica, donde la empresa también está haciendo una apuesta muy importante a través del proyecto Optimus. Además a esto hay que añadir el enorme valor que pueden llegar a tener para entrenar la Inteligencia Artificial los datos del mundo real que la empresa recopila cada vez que uno de sus vehículos circula por el planeta.
  3. Transición energética: la decisión política está tomada y pese a las dudas existentes sobre cuáles son las iniciativas más efectivas para revertir el cambio climático, sin destruir el modo de vida que tanto nos ha costado construir, parece claro que los vehículos con motor de combustión tienen los días contados y que la opción más viable a corto o medio plazo son los vehículos eléctricos. Si a esto le sumamos lo relativo a infraestructuras de generación de energías renovables, especialmente la energía solar, que es por la que ha apostado Tesla, y el conocimiento en el diseño y fabricación de baterías, la ventaja competitiva en este sector también es enorme.
  4. Todo por hacer: pocas empresas tienen un road map con tantos desafíos tecnológicos por delante. Esto lejos de ser un problema supone una gran oportunidad, porque conscientes de que «el obstáculo es el camino» lo que está ocurriendo en esta industria es que ninguna empresa tiene la valentía y la capacidad de Tesla, para ser capaz de resolver uno por uno todos los obstáculos que se va encontrando en el camino. Un ejemplo muy representativo de es el anuncio realizado en el Investor Day de que su próximo motor eléctrico no requerirá el uso de tierras raras para su fabricación.
  5. Excelencia: cuando conduces un vehículo de Tesla entiendes muy bien lo que significa la excelencia porque la experiencia solo se puede calificar como excelente. Si no lo has probado, es como cuando usas por primera vez un iPhone, una experiencia que es tremendamente complicada de replicar, a tenor de la multitud de productos que usamos a diario y que no nos generan esa sensación de producto bien diseñado y bien construido. ¿Cómo de importante es esto para la decisión de compra de un vehículo por parte de una persona? el tiempo lo dirá, pero si el problema es el precio, ya sabemos que en menos de 10 años habrá un Tesla mucho más económico y que en todo caso cuando un producto es bueno el mercado lo acaba reconociendo, pese a ser más caro que sus competidores, como ha ocurrido con el iPhone.

Etiquetas: , , , ,

El profesional aumentado

Publicado el 23 marzo, 2023

Una semana más nos encontramos con grandes noticias en el sector de la Inteligencia Artificial Generativa y hay que decir que cada vez resulta más agobiante intentar seguir la actualidad en este tema, porque entre novedades interesantes también nos encontramos con mucho ruido que más que ayudarnos, lo que va a hacer es que perdamos demasiado tiempo prestando atención a cosas que no son relevantes. Esto recuerda bastante al furor vivido en 2017 en el sector Crypto, que volvió a replicarse en 2021 con el Metaverso y es muy importante saber diferenciar entre tecnologías realmente valiosas como son Bitcoin y Ethereum, de otras muchísimas que únicamente han sido diseñadas para rascar algo de dinero a los más desprevenidos. Igualmente en el ámbito de la Inteligencia Artificial Generativa se están lanzando miles de iniciativas que nos pueden hacer perder un tiempo precioso que deberíamos estar dedicando a aprender a usar muy bien herramientas como ChatGPT y Midjourney que realmente tienen el potencial de hacer cambiar las cosas.

Dicho esto, precisamente esta semana se han presentado las nuevas versiones de esta tecnología, a saber GPT-4 y Midjourney-5, las dos herramientas que en estos momentos vale la pena probar y probar hasta que se acaben convirtiendo en parte de nuestra actividad diaria, ya sea profesional o personal, con el objetivo de potenciar nuestra productividad y creatividad.

También esta semana se están sucediendo las noticias de casos de uso de estas herramientas y algunas son realmente interesantes, como el caso de la integración de Duolingo con GPT-4 para ofrecer a sus alumnos dos utilidades muy concretas de cara a mejorar la experiencia de aprendizaje de idiomas:

  • Explicar mi respuesta: es un ejemplo de la función que ofrece ChatGPT en relación con la interpretación de contenidos, en este caso de los textos generados en determinado idioma.
  • Juego de roles: es un ejemplo de la utilidad que ofrece ChatGPT para asumir diferentes roles en el marco de la función de intención, que es la más propia del servicio de chat o conversaciones.

Otro ejemplo muy interesante es el protagonizado por Reid Hoffman, que tras fundar Linkedin, se ha dedicado, entre otras cosas, a invertir en startups y escribir libros, como Blitzscaling y ahora Impromptu: amplificando nuestra humanidad a través de la IA.

Del autopilot al copilot

La presentación de la integración de las herramientas de ofimática de Microsoft enfocadas al aumento de la productividad, gracias a la Inteligencia Artificial, nos ha dejado dos grandes titulares:

  • El futuro de la informática pasa por una evolución de la interfaz de usuario, del teclado, el ratón y la pantalla táctil vamos a pasar al lenguaje natural como nueva interfaz. Es decir, el futuro es chat.
  • En este futuro la forma elegida para trabajar con la Inteligencia Artificial pasará de ser en modo autopilot, donde el usuario no puede intervenir porque todo lo hace la IA, al modo copilot donde el usuario trabaja codo con codo con la tecnología.

Básicamente lo que está ocurriendo es que la Inteligencia Artificial ha dejado de ser una tecnología que sólo pueden usar las grandes empresas tecnológicas para desarrollar productos, como los algoritmos de recomendación, para evolucionar a un momento actual donde gracias a la GenAI se están desarrollando cientos de utilidades que cualquier persona puede usar para ser más productivo y más creativa en su trabajo.

Tu avatar en el metaverso estará impulsado por la Inteligencia Artificial

Hablar de metaverso con los tiempos que corren puede quedar un poco anticuado, sobre todo ahora que Meta/Facebook ha tenido que reducir sus planes de desarrollo debido la crisis financiera que atraviesa, pero lo que estamos viendo en los últimos meses al respecto de las posibilidades que nos ofrece la Inteligencia Artificial Generativa para generar texto, imagen, audio y vídeo creo que nos acerca mucho más al metaverso de lo que pensamos.

Básicamente lo que las GenAI van a permitir es el desarrollo de una cantidad increíble de contenido que puede habitar y desarrollarse en el metaverso, sea lo que sea lo que acabe siendo este espacio en el que las personas interactúan de una forma mucho más cercana a través de Internet. Y los avatares son una buena representación de esta situación ya que estamos viendo que las herramientas de generación de imagen pueden hacer cosas increíbles, como es el caso de Lensa, y cuando esto se traslade al formato vídeo lo va a ser aún más.

De esta forma no creo que tardemos mucho en disponer de herramientas que nos permitan crear nuestro avatar virtual, dotarle de personalidad y transferirle nuestro conocimiento, para que habite por nosotros en Internet y vaya por ahí buscando cosas para nosotros, conociendo a otros avatares que puedan tener nuestros mismos intereses y creando todo tipo de contenidos o experiencias basados en nuestras preferencias.

El abogado aumentado

A nivel personal quizás esto de los avatares en el metaverso lo veamos un poco lejos, pero en lo que a la aplicación profesional se refiere el aprovechamiento de estas tecnologías está mucho más cerca de lo que parece, ya que desde el lanzamiento de ChatGPT podemos tener a nuestro lado una especie de «becario» que nos ayuda con todo tipo de tareas, pero no solo las que pueden ser rutinarias y se pueden automatizar, sino sobre todo también las que tienen que ver con la creatividad.

Un ejemplo de ello lo vamos a ver con los profesionales de la abogacía y va a ser , que es experta en la materia, quién nos va a ilustrar sobre ello. Tras escribir el artículo ChatGPT debe revolucionar, de una vez por todas, la enseñanza del Derecho donde se enfoca específicamente en la cuestión del aprendizaje del derecho, nos cuenta a continuación cómo esto se puede aplicar también al desarrollo de la profesión de abogado.

¿Cómo ves que ChatGPT está afectando a la actividad legal y que posibilidades de desarrollo observas?

En este momento aún es demasiado pronto para poder medir la afectación, pero está claro que está generando debate entre los profesionales del Derecho. En las facultades de Derecho se están manteniendo reuniones del profesorado para reflexionar juntos sobre las consecuencias y se está pidiendo a algunos profesores que analicen el tema e impartan formación al resto o bien se está contratando formación a expertos en el tema. En los despachos de abogados también se habla de ChatGPT porque son conscientes de que es una solución que les impacta. Los abogados responden a consultas de los clientes. Una solución como ChatGPT que puede responder a cualquier consulta es claramente un competidor del despacho, sobre todo si realmente es capaz de responder bien. Además se ha publicado la noticia de que el despacho británico Allen and Overy ha desarrollado una solución apoyada en ChatGPT, a la que han llamado Harvey, que proporcionará a más de 3.500 abogados de A&O en 43 oficinas, que operan en varios idiomas, la capacidad de generar y acceder a contenidos jurídicos. Este es un claro ejemplo de cómo se va a poder aprovechar el potencial de ChatGPT en las firmas. Esto mismo podría hacerse desde el sector público para apoyar a los jueces y magistrados, a los notarios y registradores.

Por supuesto también han surgido las visiones críticas de la solución y algunos abogados han hecho experimentos dirigidos a probar las limitaciones del sistema que en efecto las tiene. El sistema por ejemplo es capaz de redactar un contrato, pero si le pides que lo adapte para que sea en favor de una de las partes, no es capaz de hacerlo. Así que está claro que al menos por ahora, los abogados pueden vender ese “asesoramiento con sesgo” que aporta valor a sus clientes.

Otras funciones que pueden ser muy útiles para los juristas son las que permiten resumir textos y traducirlos. Nosotros tenemos que analizar muchísima información y a veces en cortos plazos de tiempo. Algo que te permite hacerlo bien y rápido, puede ayudarte mucho.

En resumen, son muchos los operadores del sector legal conscientes del impacto que esta revolucionaria familia de soluciones de IA puede tener en nuestras profesiones y muchos los que estamos analizándolas y reflexionando sobre él para que nos pille desprevenidos y para sacar el máximo partido a esta tecnología.

¿Qué recomendarías a un profesional que quiera empezar a usar ChatGPT en su trabajo?

Lo primero muy sencillo que se cree una cuenta y que experimente. También que lea artículos sobre cómo usarlo. Desde su lanzamiento a finales de noviembre, somos muchísimos quienes hemos trasteado con la solución y compartido el resultado de nuestros experimentos. Se aprende mucho leyendo lo que otros están haciendo: para qué lo usan, cómo lo usan, qué limitaciones han encontrado, etc. Creo que además de experimentar y usarla hay que conocer sus entrañas en la medida que es posible. Así que también recomendaría leer la “letra pequeña” de la plataforma y preguntarle a la propia solución cosas como “quien te ha desarrollado”, qué información te nutre”, quien es tu propietario, etc. Respuesta a estas preguntas las encontramos también en numerosos artículos. Hay que leerlos. Solo podemos tener “sentido crítico” sólido, si tenemos buena información.

¿Qué pasos tendría que dar para sacarle todo el provecho a esta tecnología?

Aparte de los que acabo de describir: experimentar y conocer sus entrañas, es importante entender más sobre la inteligencia artificial en general, la familia tecnológica a la que pertenece ChatGPT y que en estos momentos es objeto de regulación en Europa y en otros países. Conocer los riesgos legales que se derivan de uso es importante para no meterse en problemas. Además, creo que hay que aprender a “hablar con la máquina”, ser capaz de darle las indicaciones que necesita para darnos el mejor resultado posible. Ese hablar el mismo idioma lo dominan los llamados “ingenieros de prompt” que son quienes de alguna forma diseñan la interacción con la máquina, las preguntas u órdenes que permiten que la IA genere una respuesta concisa y destacada. Los “prompt” son los conjuntos de palabras que nos permiten interactuar con este tipo de soluciones.

¿De qué forma estás contribuyendo por tu parte a que cada vez más profesionales aprovechen esta innovación?

Por un lado, poniéndome, como ya he hecho en el pasado muchas veces, el gorro de exploradora y probando las soluciones que van saliendo al mercado. Estas semanas además de jugar con ChatGPT, he trasteado con DALL·E y con una solución israelita que me ha maravillado, pues he elaborado dos vídeos en no más de cinco minutos. Se llama Studio.d-id.

Una vez que entiendo lo que ofrecen y me gusta, se las enseño a alumnos, compañeros, clientes y amigos. Les pido que las prueben y que me digan qué les parece.

Además, me gusta reflexionar. Creo que es importante pensar sobre por ejemplo, el impacto de estas tecnologías en nuestros derechos, en nuestro día a día y en nuestras capacidades intelectuales. Muchas soluciones son maravillosas, pero a la larga, ¿no nos harán más tontos?

Finalmente, enseño en la universidad y como profe expongo a mis alumnos a estas novedades para que estén muy al día. También he preparado un taller para profesorado de Derecho, porque creo que todos los profesores debemos explorar juntos el impacto de estas soluciones en los estudios y en nuestras metodologías pedagógicas y reflexionar sobre cómo incorporarlas para que aporten valor, en lugar de restarlo.

Etiquetas: , , , , ,

Se busca ingeniero de prompts

Publicado el 02 marzo, 2023

Creo que en esto de la Inteligencia Artificial Generativa necesitamos empezar a darle más relevancia a los diseñadores. Partiendo por situaciones concretas como el nombre de ChatGPT, la integración de Midjourney en Discord o el diseño de los estilos de las cajas de textos de Bing Chat, es como si las ganas de lanzar cosas y la sensación de poderío que supone que funcionen de una forma tan impresionante, haya dejado de lado la estética en todo este proceso.

Es cierto que el diseño no es solo estética y cada vez toma más relevancia la experiencia del usuario, donde sin duda la Inteligencia Artificial tiene mucho que aportar, pero qué duda cabe que la mentalidad de diseño, la capacidad de poner al usuario en el centro y en base a ello diseñar la experiencia de uso, como lo haría un diseñador, es una habilidad que hay que potenciar en esta época de cambios sustanciales provocados por la tecnología.

También el pensamiento crítico es una de las habilidades a desarrollar, pero no solo porque las GenAIn «alucinen» o se inventen cosas cuando hablan, sino porque la complejidad del mundo en el que vivimos aumenta por momentos y cada vez resulta más importante entender qué es lo que está ocurriendo a nuestra alrededor, hasta el punto de poder discernir cómo de real es lo que estamos viendo, leyendo o escuchando. Si es que hay algo real y no se acaba descubriendo que vivimos en una simulación 😉

Aprender a aprender es la tercera habilidad a desarrollar en estos momentos, porque aunque sea una de las habilidades principales que nos diferencia como especie, la velocidad a la que se desarrollan los cambios hace que nosotros también tengamos que acelerar en este proceso de aprendizaje. El arte de hacer preguntas, aprender a hablar con la Inteligencia Artificial, es lo que vamos a tratar aquí, porque está surgiendo un nuevo tipo de profesional, que a modo de encantador de serpientes, es capaz de comunicarse de manera excepcional con la Inteligencia Artificial.

Se busca Prompt Engineer

En las últimas semanas hemos conocido que algunas empresas están empezando a buscar de forma específica profesionales con la denominación Prompt Engineer y una de las ofertas de empleo de las que más se ha hablado es la de la startup Anthropic, participada por Google, que ofrece un salario entre 175k y 335k dólares por ello, lo cual es muy representativo de lo bien valorados que están los profesionales que realizan este trabajo.

De esta oferta de empleo podemos deducir que un Prompt Engineer debe tener un espíritu hacker, creativo y disfrutar resolviendo acertijos complejos. Además, debe ser un excelente comunicador y que le encanta enseñar conceptos técnicos a los demás. Para ello, debe crear documentación de alta calidad que ayuda a los demás a entender el trabajo que se está realizando.

Un Prompt Engineer debe tener un alto nivel de conocimiento de la arquitectura y el funcionamiento de los grandes modelos de lenguaje. También debe tener habilidades básicas de programación y control de calidad del código, y debe sentirse cómodo escribiendo pequeños programas de Python. Además, el ingeniero de prompts tiene una mentalidad organizativa y disfruta construyendo equipos desde cero. Piensa de manera holística y puede identificar proactivamente las necesidades de una organización.

El Prompt Engineer es un experto en aclarar problemas ambiguos e identificar los principios básicos que se pueden traducir en todos los escenarios. Además, tiene pasión por hacer que la tecnología sea segura y beneficiosa para la sociedad. Anticipa riesgos imprevistos, modela escenarios y brinda orientación práctica a las partes interesadas de la organización.

También debe ser capaz de pensar de forma creativa sobre los riesgos y beneficios de las nuevas tecnologías y se mantiene actualizado e informado al interesarse activamente en las investigaciones emergentes y las tendencias de la industria.

De esta forma podría ocurrir que la profesión de ingeniero de prompts se convierta en una de las más demandadas en el ámbito de la Inteligencia Artificial Generativa, especialmente en el momento en el que las empresas descubran la gran aportación que puede hacer esta tecnología para mejorar la productividad de sus trabajadores.

Veamos entonces más características que podrían tener los ingenieros de prompts:

  • Ser expertos en utilizar la tecnología de chatbots basados en modelos de lenguaje generativo para crear diálogos de calidad y eficientes que cumplan con los objetivos del usuario.
  • Entender el funcionamiento del modelo de lenguaje generativo, conocer las fortalezas y debilidades del modelo para crear diálogos eficientes.
  • Comprender cómo afecta el contexto aportado a los resultados del modelo y cómo se estructura realmente la información.
  • Conocer cómo afecta la estructura de las instrucciones a los resultados. Un simple cambio en la estructura de la instrucción puede tener un gran impacto en la calidad del diálogo generado. Además, debe entender cómo afecta la construcción y el orden de cada concepto a los resultados.
  • Saber cómo se pueden modificar los pasos y la relevancia de cada elemento dentro de una secuencia. La capacidad de ajustar la secuencia y la relevancia de los elementos permitirá crear diálogos más eficientes y satisfactorios para el usuario.

El Prompt Hacking es otra de las actividades que realizan los ingenieros de prompts, de hecho probablemente sea la más valorada ya que implica un mayor conocimiento del funcionamiento de los grandes modelos de lenguaje y sobre todo al demostrar la creatividad necesaria para hackear el sistema de manera que haga lo que nosotros queramos, incluso saltándose las limitaciones impuestas por sus creadores. Un ejemplo de ello es DAN en ChatGPT, donde a partir de unas instrucciones muy precisas es posible que aporte respuestas sobre temas para los que se le ha impedido hablar y donde en una conversación normal diría que no está autorizado a hablar sobre ello.

De esta forma Prompt Hacking es la técnica utilizada por el Prompt Engineer para aprovechar las vulnerabilidades de los sistemas de generación de lenguaje natural, lo cual implica manipular el funcionamiento del modelo de lenguaje generativo para obtener mejores resultados o para agregar funcionalidades que no estaban disponibles anteriormente. Por otro lado también el Prompt Engineer debe conocer estas técnicas para proteger al modelo, en lugar de atacarlo. Algunas de las técnicas que se utilizan para conseguirlo son:

  • Prompt Injection: técnica utilizada para agregar información adicional al modelo de lenguaje generativo, lo cual implica agregar nuevos datos de entrenamiento al modelo para mejorar la calidad de las respuestas generadas.
  • Jailbreaking: es la eliminación de restricciones impuestas por el fabricante del modelo de lenguaje generativo. Esto permite que el Prompt Engineer pueda modificar el modelo de lenguaje generativo y agregar nuevas funcionalidades o mejoras al modelo.
  • Prompt Leaking: es la filtración accidental o intencional de información privada o confidencial a través del modelo de lenguaje generativo. El Prompt Engineer debe tomar medidas para evitar la filtración de información confidencial a través del modelo de lenguaje generativo.
  • Defensive Measures: son las estrategias utilizadas por el Prompt Engineer para proteger el modelo de lenguaje generativo contra ataques maliciosos y garantizar la seguridad de la información. Estas medidas pueden incluir el monitoreo constante de la actividad del modelo, la detección de intentos de ataque y la implementación de medidas de seguridad para proteger el modelo contra posibles amenazas.

Nuestras recomendaciones para empezar a trabajar con las GenAI

Ahora que ya sabes lo que es un ingeniero de prompts, decidas o no dedicarte a ello, lo que habrás podido comprobar a lo largo de los últimos meses es el gran potencial que encierran estas herramientas para ayudarte en tu trabajo. Ayer mismo un participante de uno de nuestros cursos nos contó un ejemplo que nos encantó, ya que había usado ChatGPT para realizar el ejercicio de los seis sombreros para pensar, que está ideado para la toma de decisiones en grupo, pero en este caso pidiendo a ChatGPT que asumiera sucesivamente cada una de las posturas correspondientes, de cara a reflexionar sobre un tema determinado que le afectaba en su trabajo.

Este es uno de los muchos ejemplos que nos vamos encontrando cada día de gente que ha empezado a considerar ChatGPT como una herramienta que le puede ayudar a mejorar en su trabajo y por eso insistimos aquí en la importancia de comenzar a usarlo lo antes posible.

Dicho esto compartimos a continuación una serie de recomendaciones que hemos ido haciendo en los últimos meses y también una interesante entrevista a un emprendedor que ya se ha lanzado a crear nuevos proyectos basados en la Inteligencia Artificial Generativa.

Antes de empezar

  1. Comienza por revisar a qué dedicas tu tiempo, en qué programas informáticos pasas más tiempo, porque las GenAI pueden ayudarte a mejorar la redacción de correos, a crear fórmulas en excel, a decidir el contenido de presentaciones, a estructurar la agenda de una reunión de trabajo, a comenzar a aplicar una nueva metodología de trabajo, a usar una nueva app, …
  2. Empieza a hacer cosas que antes quizás no hacías pero que pueden enriquecer mucho tu actividad profesional, como por ejemplo escribir de cara al público, ya que una gran parte de los usuarios de redes sociales solo son meros observadores, ahora usando las GenAI puedes empezar a crear tu propio contenido de lo que quieras comunicar.
  3. Adopta el hábito de contrastar tus ideas, una actitud muy sana cuando puede realizarse con otras personas, como compañeros de trabajo o mentores, pero que muchas veces no hacemos por falta de oportunidad, ahora podemos hacer estas consultas a una GenAI que recopila el conocimiento de las personas a las que se ha dedicado a estudiar.
  4. Amplifica el alcance de tu trabajo, no solo haciendo más y mejor lo que antes hacías sino adentrándote en nuevas categorías profesionales, como puede ser el mundo del desarrollo de software, que tantas oportunidades ofrece, ya que ahora puedes tener a tu lado un mentor o compañero de trabajo que te acompañará en todo el proceso de aprendizaje.
  5. Desarrolla tu faceta creativa, ya que no es casualidad que precisamente los mayores avances en Inteligencia Artificial provengan del mundo de la creatividad, como es el caso de la creación de imágenes, vídeos o música. Si las GenAI demuestran esa gran capacidad para crear arte digital es precisamente porque la han copiado de los humanos.
  6. Mejora la forma la que tomas decisiones, ya que las GenAI pueden analizar por ti grandes cantidades de datos de forma rápida y precisa, lo que te permitirá tomar decisiones más acertadas y eficientes. Esto puede ser utilizado en diferentes ámbitos, como la toma de decisiones empresariales o la predicción de tendencias en el mercado.
  7. Traza un camino claro de a dónde quieres llegar ahora que puedes apoyarte en esta nueva herramientas. Quizás sea un buen momento para analizar tus debilidades y probar cómo se pueden compensar gracias a esta nueva tecnología. Aprovecha para definir unos objetivos al respecto, algo para lo que de hecho puedes recurrir a ChatGPT en busca de ayuda.
  8. Reinventa tu trabajo o dale un vuelco a tu carrera profesional. Es tan amplio el abanico de posibilidades que ofrece esta nueva tecnología que van a surgir miles de oportunidades para aquellos que sean capaces de sacarle el máximo partido, como hemos visto en el caso específico de los ingenieros de prompts.
  9. Aprovecha las GenAI para desarrollar nuevos productos y servicios que se adapten a las necesidades y deseos de los consumidores. Esto puede ser utilizado para crear soluciones personalizadas, o para desarrollar productos y servicios que se ajusten de forma precisa a las necesidades de tus clientes.
  10. Emprende o intraemprende, ya no vas a estar solo, porque la soledad del emprendedor es de las cosas que más desgaste producen, al tener que tomar siempre las decisiones basadas en nuestra visión de las cosas, ahora podemos contrastar todas nuestras ideas con toda la gente cuyo conocimiento ha extraído ChatGPT en su entrenamiento.

Cuando te pongas a ello

  1. Comienza por preguntar sobre temas de los que sabes ya un poco, pero no de los que sabes mucho o de los que no sabes nada, ya que si las expectativas que has puesto en ello son muy altas, te puede defraudar y esto puede que haga que no quieras seguir en la conversación. Sin embargo si le preguntas de cosas de las que ya tienes cierto conocimiento, poco a poco le puedes ir poniendo a prueba, viendo hasta donde es capaz de llegar, en qué se equivoca y en qué te sorprende, porque así podrás comprobar el potencial que tiene para ayudarte a seguir aprendiendo de un tema del que tienes interés.
  2. Observa lo que otros hacen para sacarle provecho a esta tecnología, porque es con situaciones reales como mejor se aprende y también mejor se entiende el potencial que puede tener. Es curioso que precisamente estemos siendo los humanos los que tengamos que estar encontrando estos casos de uso y no directamente la propia tecnología, lo cual representa muy bien esa dualidad donde su gran potencial no está en dejarla que trabaje de manera independiente sino que seamos nosotros los que trabajemos codo con codo con ella.
  3. Aprende a descubrir los errores como parte del proceso de trabajo con las GenAI, porque como sabes, uno de los principales problemas de esta tecnología es que no resulta infalible, no deberíamos hacer los cálculos para construir un avión o un puente con este tipo de IA’s, pero sí que pueden ayudarnos a muchas cosas en las que el riesgo que asumimos no es tan alto. Por lo tanto aprender a diferenciar cuándo debemos fiarnos de ella es tan importante como cuando se conduce un coche autónomo saber cuándo deja de tener el control porque se ha desactivado la función de conducción autónoma, por ejemplo al ir a tomar una rotonda.
  4. Hazlo como un juego, aprender muchas veces puede ser divertido y también trabajar debería proporcionarnos ese tipo de satisfacciones. Así que la mejor forma de empezar a usar esta tecnología es como en un juego donde tienes un contrincante o un compañero con el que vas interactuando, como si fuera una partida de ping pong. De esta forma, como en todo juego o deporte, podrás ir viendo cómo vas mejorando a medida que lo practicas y el resultado acabará siendo mucho mejor que si comienzas con la presión de obtener buenos resultados a corto plazo.
  5. Encuentra en lo que es mejor la GenAI en base a las necesidades que tú puedas tener. Por ejemplo no debe ser casualidad que ChatGPT sea tan malo para las matemáticas, del mismo modo que muchas personas pueden ser malas para las matemáticas pero buenas para la comunicación, y viceversa, de lo que se trata en este caso es de encontrar aquello en lo que es capaz de hacer las cosas mejor que nosotros, o quizás no mejor pero sí de forma más rápida, barata o eficiente.

Lo que ChatGPT puede hacer por ti

  • Interpretación: la inteligencia artificial generativa puede ser utilizada para interpretar y resumir textos de manera eficiente, relacionar términos o conceptos, continuar una historia, elaborar preguntas para encuestas o entrevistas, explicar de manera sencilla temas complejos como los legales, médicos y científicos, mejorar la redacción de un texto, extraer palabras clave y generar un esquema o estructura de contenido mediante tablas e índices. También se puede utilizar para traducciones entre idiomas, corregir código, sacar conclusiones de procesos de selección o entrevistas de usuarios, categorizar vídeos, generar informes en base a datos y extraer ideas claves de artículos.
  • Generación: la inteligencia artificial generativa también puede ser utilizada para generar ideas relacionadas con un tema concreto, crear planes, programas, agendas, guiones, contratos, instrucciones, mapas mentales, nombres y marcas, formularios, comunicaciones y anuncios. Además, se puede utilizar para escribir textos usando una estructura concreta, como el qué, por qué y cómo, escribir una nota de prensa, crear código, documentarlo y encontrar errores.
  • Intención: en cuanto a la intención, la inteligencia artificial generativa puede ser utilizada para generar conversaciones entre dos puntos de vista, contrastar opiniones, asignar un rol a un interlocutor, adaptar copy para artículos, actuar como un personaje, jugar a un juego, crear un storytelling, oponerse a una idea y enseñar nuevas habilidades.
  • Análisis: la inteligencia artificial generativa también puede ser utilizada para analizar las cláusulas más críticas de un contrato, servir como alternativa a un buscador para búsquedas concretas, sacar conclusiones de textos, detectar errores en un texto, analizar artículos y resolver dudas.

La experiencia de Javier Jiménez creando proyectos de GenAI

Javier Jiménez es fundador de PromptHero y a través de la siguiente entrevista nos habla de la puesta en marcha de este proyecto, sus planes de futuro y su visión sobre la figura del ingeniero de prompts.

En primer lugar nos gustaría conocerte y que nos cuentes cómo ha sido tu trayectoria de emprendedor hasta el momento ¿En qué momento decides emprender con la Inteligencia Artificial Generativa?

Mi camino como emprendedor comenzó en el mundo del ecommerce, soy diseñador de producto y monté una startup de joyería personalizada. Sin embargo, siempre he tenido una gran pasión por la tecnología y he pasado muchos años programando por mi cuenta. En septiembre de 2022, recibí una llamada de @rameerez, me cuenta que hace una semana ha salido esta tecnología llamada «Stable Diffusion», que ha montado una web llamada PromptHero y que quiere un cofounder para surfear esta ola.
Se me juntaban muchas variables, creatividad, tecnología e inteligencia artificial. Supe que esta era mi oportunidad de trabajar en una de las fronteras del conocimiento humano y este sector no ha parado de crecer desde entonces.

Nos encantan los proyectos que estás desarrollando, como PromptHero, y nos gustaría saber qué planes tienes al respecto, si hay otros proyectos en marcha y cómo te gustaría verlos evolucionar.

Nuestro proyecto principal es PromptHero, el cual está siendo la puerta de entrada de miles de personas al mundo de la IA generativa. Contamos con una de las bibliotecas de prompts más grandes del mundo por lo que la gente entra a nuestra plataforma cuando quiere crear imágenes con IA. En enero tuvimos más de 1,5 millones de visitas y no paramos de crecer. Además, hace un mes lanzamos un curso de introducción a las IAs generativas al que se apuntan cientos de alumnos cada mes. Queremos ofrecer a los lectores de Futurizable un 10% de descuento en nuestro curso a través de este link. Nuestro plan es convertirnos en la web de referencia para aprender a hablar con las IAs generativas, ayudarte a entenderlas, entrenarlas y aprovechar todas sus ventajas. También hemos jugado un poco con las aplicaciones de la IA en moda, tanto con imágenes de marketing como en la parte de diseño de producto, pero aún tendremos que esperar un poco para que la IA produzca artes finales.

En este artículo estamos hablando de la figura del ingeniero de prompts y a bote pronto el concepto de PromptHero también suena a ese profesional que es muy bueno escribiendo prompts ¿Es así?

Sin duda alguna, de hecho ya están publicando ofertas con salarios de hasta $250k para este puesto. Entender las tripas de las IAs, cómo funcionan y ser capaz de adaptarlas en un producto cerrado que quite complejidad al resto de humanos va a coger cada vez más valor. Estamos muy orgullosos de la comunidad que estamos montando alrededor de PromptHero, de hecho de los que más aprendemos es de nuestros usuarios (ej: JHawkk, TeoAtienza, Raketa) tenemos una comunidad en Discord donde están compartiendo las últimas novedades en el sector y cómo usarlas, ojalá podamos ayudar a la gente a que conviertan todas estas horas invertidas en su trabajo.

¿Qué recomendarías a un profesional que quiera convertirse en ingeniero de prompts?

Que se meta en el Discord de PromptHero (jajajaja). Esto evoluciona muy rápido y aunque la generación de imágenes aún no tenga un uso profesional, llegará a tenerlo. Le recomendaría que aprenda todas las herramientas y que esté muy cerquita de la frontera del conocimiento. Estamos en un momento en el que hay tanto por hacer que es muy fácil aportar valor a la comunidad, nosotros lo hicimos con Openjourney, un modelo de Stable Diffusion entrenado con la estética de Midjourney pero gratis. Openjourney se ha convertido en el modelo más descargado de HuggingFace después de Stable Diffusion. Tuvo tanto impacto que hasta Midjourney nos pidió cambiarle el nombre para que la gente no se confundiera (antes se llamaba Midjourney Diffusion).

¿Qué es lo que más te ha sorprendido de la evolución que estamos viviendo desde la aparición de las Inteligencias Artificiales Generativas y qué avances próximos oteas en el horizonte?

Sin duda lo más sorprendente es el ritmo al que está evolucionando el sector. Miles de mentes compartiendo su trabajo, mejorando el estado del arte, es un claro ejemplo de innovación colectiva. Por ejemplo, Open Assistant es una iniciativa para crear un ChatGPT open source y si esto ocurre, estaríamos a las puertas de poder entrenar una IA para contestar tus emails o la atención al cliente de una empresa basándose en políticas personalizadas. Pero lo que más ganas tengo es de nuevas versiones de Stable Diffusion con mayor tamaño de renderizado de imágenes, he leído que Stable Diffusion v1.5 genera las imágenes a 128px y luego las hace más grandes. Por lo que se pierden muchos detalles. Tengo ganas de ver lo que se puede crear con generaciones de imágenes mucho más grandes, de 1080×1080.

¿Qué oportunidades observas para emprender en este sector o con esta tecnología?

Hay dos problemas, uno es la velocidad: Mucha gente inteligente y con recursos está intentando montar un producto alrededor de esta tecnología. El otro es el propio open source: las barreras de entradas tienden a ser cero. Con estas premisas, se puede revolucionar un sector entero encontrando un caso de uso que absorba la complejidad de la tecnología para el cliente final.

¿Tenéis planes para hacer cosas con ChatGPT?

De momento nos estamos centrando en IAs generativas de imagen, pero nos atrae bastante la idea de entrar en GPT3 para ayudar a empresas a entren sus propios modelos.

¿Qué otras startups basadas en GenAI te parecen especialmente interesantes?

Scenario.gg y PhotoAI


Si lo que aprendido aquí te ha parecido interesante y no quieres quedarte fuera de la revolución de la Inteligencia Artificial Generativa te recomendamos participar en nuestros cursos de GenAI y ChatGPT

Etiquetas: , , , , , ,

Oportunidades para emprender con la Inteligencia Artificial

Publicado el 20 febrero, 2023

Vivimos tiempos apasionantes en el ámbito de la tecnología, probablemente equivalentes a los que vivieron los primeros que pudieron acceder a la informática personal en los años 70 y a Internet, a través de la web, en los años 90. Del mismo modo ahora el acceso a la Inteligencia Artificial ha dejado de ser algo exclusivo de los informáticos y cualquiera tenemos a nuestro alcance multitud de herramientas que pueden impulsar significativamente nuestro potencial para aportar valor a la sociedad a través de nuestro trabajo.

Quizás por esto Sam Altman, CEO de OpenAI se atreve a decir esto que cuesta tanto asimilar y llegar a extrapolar a nuestra situación particular:

Creo que la Inteligencia Artificial va a ser la fuerza más grande que jamás hayamos visto para el empoderamiento económico y que mucha gente se haga rica.

Escenario uno/ todos ricos

En base a estas declaraciones de Sama, que no son nuevas, porque lleva años hablando del gran impacto que la Inteligencia Artificial tendrá en la economía y en la sociedad, la tendencia que vivimos al respecto de cómo la tecnología y la innovación están sacando a millones de personas de la pobreza, no solo no va a revertirse, sino que además va a continuar haciendo que esas personas que salen de pobres cada vez puedan tener mayor poder adquisitivo y correspondientemente los que ya no son pobres también puedan ir poco a poco aumentando su riqueza. Sin embargo esto se contradice bastante con las noticias económicas que nos llegan a diario y la dificultad que tiene una gran mayoría de la población para adentrarse en el circulo virtuoso que puede llevarle la riqueza, que comienza por la posibilidad de empezar a ahorrar para posteriormente invertir y llegar a construir un patrimonio personal.

Escenario dos/ todos pobres

Del otro lado nos encontramos el escenario en el que la tecnología nos hace cada vez más inútiles y correspondientemente más pobres, pero no a todos, porque lo que está claro es que en esta situación va a haber unos grandes ganadores. A las empresas tecnológicas que están desarrollando estas tecnologías nadie les va a quitar el gran beneficio que están obteniendo, y de forma muy merecida, porque realmente están aportando mucho valor para hacernos más productivos y que nuestra vida sea más cómoda. Pero mientras esas empresas se hacen cada vez más ricas lo que no sabemos es cómo hacer para que el resto de la sociedad para seguir su estela, porque lo que está claro es que no va a funcionar lo de quitárselo a ellos para dárselo a todos los demás, lo cual nos llevaría de vuelta a tiempos horribles que ya hemos vivido en el pasado.

Una opción puede ser invertir en esas empresas, pero la duda es cómo desarrollar en la sociedad la educación financiera necesaria para que la gente comience a ahorrar, por poco que sea, y luego invertir en este tipo de empresas que a buen seguro seguirán con en su senda alcista de revalorización en el largo plazo.

La otra opción es emprender usando esta tecnología, para que al igual que ha ocurrido con la informática e Internet, no solo puedan hacerse ricos los creadores de IBM, Microsoft, Google, Amazon, Facebook, … sino también muchos otros miles de emprendedores y profesionales que han decidido hacer carrera en el ámbito de la tecnología.

Porque la opción que no es posible, la que tenemos que descartar, es la que nos lleva a acomodarnos, seguir pasando las horas muertas enganchados a Netflix y TikTok, sin darnos cuenta de que tenemos ante nosotros una gran oportunidad para prosperar y sobre todo para ayudar a otros a hacerlo con nosotros.

Y lo peor de este escenario, donde una inmensa mayoría de la población no es del todo pobre, pero tampoco tiene capacidad de prosperar, es que nos lleva a un escenario muy negativo, donde se acrecienta la pandemia que ya vivimos de enfermedades físicas y mentales relacionadas con la mala alimentación y la falta de actividad física. Un escenario en el que incluso se podría mantener el estado de bienestar, porque los avances a nivel médico son increíbles, lo cual no hace vivir cada vez más años, pero sin embargo nuestro estado de salud con el tiempo cada vez está más deteriorado. Vivimos cada vez más, pero vivimos peor durante esos años.

Ecosistema de Inteligencia Artificial en España

¿Cómo está España posicionada para poder aprovechar esta democratización de la tecnología? En España, más del 96% de los hogares tienen conexión a internet, por delante que la media de la Unión Europea y más del 78% con un acceso a un ordenador.

Siendo esto una situación muy propicia para el surgimiento de iniciativas que hagan uso de esta numerosa cantidad de herramientas tecnológicas disponibles en la actualidad. Además de que muchas de estas herramientas son gratuitas o “freemium”, lo que hace que las barreras de entrada sean muy bajas y, por tanto, resulta más fácil para los emprendedores y profesionales lanzar y escalar sus proyectos. En consecuencia, las condiciones son óptimas para aprovechar al máximo estas herramientas y obtener resultados exitosos.

Situación de la Inteligencia Artificial Generativa en las startups Españolas

En la actualidad, la inteligencia artificial está experimentando un rápido avance en todo el mundo y España no es una excepción. De hecho, en 2022, el uso de la inteligencia artificial en empresas de más de 10 trabajadores en el país aumentó un 12%.

Hasta hace poco, se pensaba que solo las grandes corporaciones con alto poder adquisitivo podían permitirse el uso de la IA en su día a día. Sin embargo, esta percepción está cambiando gracias a soluciones como ChatGPT, que están accesibles a todo el público con el único requisito de crear una cuenta en OpenAI.

Esta facilidad de acceso abre la puerta a emprendedores que buscan maneras de hacer más con menos para mejorar su modelo de negocio. Pensemos en algunas de las principales áreas de una empresa, la IA puede automatizar tareas en estas áreas clave como atención al cliente, marketing y publicidad, datos, operaciones y finanzas, y proporcionar información valiosa.

Por ejemplo, una herramienta de generación de imagen como Midjourney puede mejorar el manual de marca o incluso crear uno desde cero. Los emprendedores pueden utilizar estas herramientas para validar nuevos diseños e incluso encontrar una mejor manera de transmitir una idea.

Además, la IA también puede analizar las respuestas de las encuestas de los usuarios en un proceso de validación de una idea de negocio, lo que puede mejorar las conclusiones y resultados. ChatGPT, por ejemplo, usaría su base de datos con millones de parámetros para analizar los resultados de dichas encuestas y proporcionar información valiosa.

Otro ejemplo en cuanto al uso de ChatGPT sería el orientado al aprendizaje. Este modelo de lenguaje podría ayudar a cualquier miembro de la empresa a mejorar su capacidad de adquirir nuevo conocimiento en tiempo récord. Todas esas preguntas que surgen en nuestra mente en nuestro día a día, pueden ser respondidas por esta herramientas, lo que nos ayuda a mejorar nuestra capacidad de aprendizaje y adquirir conocimiento de manera más eficiente.

Además, la IA también puede ayudar a los empleados a identificar patrones y tendencias en conjuntos de datos, lo que les permite tomar decisiones más informadas y efectivas en sus respectivas áreas de trabajo.

Por otro lado, queremos compartir varias casos en los que la IA se está aplicando en diversas startups españolas, las cuales, usan IA como núcleo de su propuesta de valor, tenemos buenos casos que vale la pena exponer:

  • Red Points que fue fundada en Barcelona hace 11 años, utiliza Inteligencia Artificial para luchar contra las falsificaciones, la piratería, la suplantación de identidad y los abusos en la distribución, todo ello en el vasto ciberespacio que llamamos Internet.
  • PromptHero y VisualHound son dos buenos ejemplos de esta nueva hornada de startups que quieren aportar soluciones basadas en la Inteligencia Artificial Generativa. Basta echar un vistazo a sus webs para comprobar las cosas increíbles que se pueden hacer, al menos en lo que a diseño gráfico se refiere.
  • Examfy es un ejemplo de cómo ha afectado el lanzamiento de ChatGPT a la evolución de empresas ya existentes. Gracias a la API de OpenAI les ha permitido aportar mucho más valor a sus usuarios, además de la propuesta de valor ya existente.
  • Mediktor es una startup que desarrolla un sistema experto preciso para pre-diagnósticos, triage y soporte en la toma de decisiones. Su herramienta principal es una verificación de síntomas y triage validada científicamente basada en inteligencia artificial llamada «Mediktor Hospital».

Para conocer más startups españolas que trabajan en Inteligencia Artificial Generativa puedes leer este artículo.

En resumen, la IA es una tecnología en constante evolución que puede proporcionar muchas ventajas para las startups que buscan crecer y expandirse en el mercado. Con la comunidad de IA en constante crecimiento en España, hay un gran potencial para aquellos que buscan hacer crecer su negocio utilizando la IA, aunque también hay desafíos que deben tenerse en cuenta para aprovechar al máximo esta tecnología.

Si este artículo te ha motivado a emprender y no quieres quedarte atrás en el mercado y en el ámbito de la Inteligencia Artificial Generativa o quieres aprender más sobre ello para extraer el máximo valor de estas herramientas, te recomendamos participar en el siguiente taller presencial que se realizará el 3 de marzo en Barcelona.

Etiquetas: , , ,

Oda a las redes neuronales

Publicado el 16 febrero, 2023

Pensando en Sistemas

En el Universo todo son sistemas y lo normal es que estos funcionen porque llegan a una especie de equilibrio, al menos si la vida existe y sobre esa vida se ha llegado a desarrollar inteligencia es porque existe un equilibrio.

  • El equilibrio en el Sistema Solar permite que los planetas giren alrededor del Sol sin chocarse unos con otros y sin precipitarse sobre la estrella que proporciona la energía necesaria para que al menos en la Tierra pueda haber vida.
  • El equilibro del planeta Tierra con la Luna determina el funcionamiento de las mareas y esto a su vez genera un equilibrio con los vientos en la atmósfera, lo cual determina muchos aspectos en el clima que también influyen en la vida.
  • El ahora nuevamente famoso núcleo terrestre incluso tiene una influencia importante en el desarrollo de la vida terrestre gracias al efecto de apantallamiento magnético que nos protege de las radiaciones procedentes del espacio.
  • El equilibro en los ecosistemas terrestres es aún más palpable en nuestra vida y está muy bien representado por la cadena trófica, donde los cambios que se producen en alguna de las especies que habitan la tierra puede afectar a las demás.
  • También el equilibrio existente en el interior y exterior de los seres vivos con las bacterias que lo pueblan es tremendamente relevante para nosotros, hasta el punto que sin ellas no podríamos vivir, ni quizás tampoco ser inteligentes.
  • Finalmente llegamos al equilibro entre la inteligencia humana y la Inteligencia Artificial, que tras millones de años de evolución de la vida es justo el momento en el que nos encontramos ahora y nos hace visualizar un escenario en el que ya existe una Super Inteligencia Artificial o Inteligencia Artificial General si consideramos la combinación del humano y la máquina como un sistema que se retroalimenta. No necesitamos llegar a tener una inteligencia artificial que sea 100% autónoma, lo mejor que puede ocurrir en estos momentos es que lo artificial sea parte de un sistema que trabaja en colaboración con las personas.

Y así es como hemos llegado de nuevo al tema de la Inteligencia Artificial que es a lo que vamos a dedicar este artículo, porque todo lo que está pasando en los últimos meses con las GenAI lo merece y desde Futurizable queremos contribuir a que sea cada vez más conocido y utilizado entre los que cada domingo leéis esta newsletter.

Un recorrido por la historia reciente de las Redes Neuronales

Entender lo que está ocurriendo con la Inteligencia Artificial merece dedicarle algo de tiempo a aprender cómo hemos llegado hasta aquí y cuáles son las principales tecnologías que hacen posible que ahora estemos hablando con ChatGPT como si fuera un humano que nos acompaña en nuestro día a día, para ayudarnos con nuestras actividades habituales, ya sea cuando estamos trabajando, cuando estamos aprendiendo, y sobre todo cuando estamos haciendo ambas cosas a la vez.

Sin tener que remontarnos a la época de Alan Turing y las primeras computadoras, cuando ya se comenzó a hablar de Inteligencia Artificial, es interesante pensar que desde ese momento ya estaba previsto que la tecnología fuera poco a poco replicando las capacidades humanas que solemos asociar con la inteligencia, como son la capacidad de hablar, leer, escribir, reconocer imágenes, resolver problemas matemáticos, jugar a juegos como el ajedrez y sobre todo aprender.

De esta forma los desarrollos en Inteligencia Artificial han seguido durante mucho tiempo dos caminos diferentes, por un lado los sistemas expertos donde se desarrollaban diferentes herramientas de software que estaban programadas para replicar las habilidades humanas pero a base de fuerza bruta, ya que la máquina no se cansa y tiene todo el tiempo del mundo para hacer los cálculos necesarios para replicar de manera matemática lo que un humano hace, por ejemplo cuando juega a las damas, que es uno de los primeros juegos donde se puso a prueba esta tecnología en la década de los 50.

Desde entonces hemos vivido diferentes periodos de auge y caída de las expectativas al respecto de las posibilidades que podría ofrecernos la Inteligencia Artificial, lo cual no ha hecho que en todo este tiempo los científicos declinaran en su afán por avanzar en el desarrollo de esta tecnología, como queda de manifiesto en la siguiente cronografía que debería servirnos para hacernos una idea de dónde estamos y cómo hemos llegado hasta aquí.

  • Las primeras redes neuronales artificiales fueron desarrolladas en 1943 por el neurofisiólogo Warren McCulloch y el matemático Walter Pitts. Sin esta invención sería imposible haber experimentado el gran avance de la Inteligencia Artificial en los últimos años, gracias a la genialidad de replicar la inteligencia a través de sus elementos fundacionales, las neuronas.
  • La neuronal artificial perceptrón desarrollado en 1957 por Frank Rosenblatt fue otro de los pilares fundamentales de esta tecnología y ofrecía la utilidad de resolver problemas de clasificación binaria, determinando si un objeto dado pertenecía a una de dos categorías.
  • El siguiente paso era conectar las neuronas artificiales entre sí, porque esto es lo que se considera como base para la inteligencia, no solo que tengamos neuronas sino como estás se conectan e interactúan formando un sistema, lo cual es la razón por la que hablamos de redes neuronales y no solo de neuronas. Y esto sucedió en la década de los 60 gracias a Georgiy Ivakhnenko y Vladimir Lapa con el desarrollo de redes neuronales que realizaban tareas como la identificación de sistemas y la predicción de series temporales. Estas redes neuronales se caracterizaban por su capacidad para realizar ajustes finos y por su estructura en cascada, lo que permitía que la información fluyera de una capa a otra; también por su capacidad para aprender a partir de datos y para generalizar a nuevos datos.
  • Y así es como llegamos al aprendizaje automático, o machine learning, que como os podéis imaginar es en lo que se basa todo lo que ha venido después y que ahora denominamos como deep learning, como una representación de que si las máquinas aprenden es gracias a la estructura de capas de redes neuronales apiladas unas sobre otras.
  • Después tuvieron que pasar un par de décadas (el invierno de la Inteligencia Artificial), en concreto llegar a los años 80 y 90 para que se produjera un nuevo gran avance en esta tecnología, con la invención de las redes neuronales convolucionales, propuestas por Kunihiko Fukushima en 1980 a través del concepto de Neocognitron, que ​más tarde fue mejorado por Yann LeCun en 1998​ al introducir un método de aprendizaje basado en la propagación hacia atrás para poder entrenar el sistema correctamente.
  • Este diseño de redes neuronales convolucionales fue refinado en 2012 por Dan Ciresan y en este momento es cuando se produce el gran punto de inflexión en esta tecnología, gracias a su utilidad para el procesamiento de imágenes. Precisamente en 2012 esta arquitectura de redes neuronales logró una gran notoriedad por usarse para vencer en la competición ImageNet organizada por las universidades Stanford y Princeton, para fomentar el desarrollo de los sistemas de clasificación de imágenes basados en Inteligencia Artificial.
  • También en 2012 Geoffrey Hinton y George Dahl, usaron redes neuronales profundas para ganar una competencia organizada por Merck en la plataforma Kaggle, que era utilizada por una gran cantidad de científicos de datos y expertos en Inteligencia Artificial para poner a prueba sus modelos de aprendizaje automático.
  • En paralelo al desarrollo de las redes neuronales convolucionales encontramos las redes neuronales recurrentes que se basan en el trabajo de David Rumelhart en 1986. Estas se utilizan para procesar secuencias de datos, como texto, audio o vídeo, es decir, para el procesamiento del lenguaje natural. En lugar de procesar cada entrada independientemente, mantienen un estado oculto que se actualiza a medida que se procesan las entradas sucesivas en la secuencia, lo cual les permite tener en cuenta la información anterior y procesar la secuencia completa para producir una salida.
  • Fue en 2014 donde vimos como todo comenzaba a acelerarse y donde nos encontramos con las redes neuronales generativas antagónicas, las famosas GANs, desarrolladas por Ian Goodfellow. Estas redes están formadas por dos partes, un generador y un discriminador, donde a través de un proceso iterativo, el generador aprende a crear datos cada vez más convincentes y el discriminador aprende a ser más efectivo en la detección de datos falsos, lo cual ha tenido un recorrido enorme en los últimos años para la generación de imágenes.
  • En 2015 Google libera Tensor Flow, la librería de software gratuita y de código abierto para el aprendizaje automático y la inteligencia artificial, que puede ser usada en una variedad de tareas, pero que tiene un enfoque particular en el entrenamiento y la inferencia de redes neuronales profundas. A raíz de esta iniciativa multitud de personas se lanzan a la aventura de aprender sobre Inteligencia Artificial lo cual acelera considerablemente el desarrollo de esta tecnología.
  • Y entonces llegó el año 2016 donde la Inteligencia Artificial ocupó todas las portadas gracias al desarrollo de AlphaGo por parte de DeepMind, al ganar al campeón del mundo del juego de mesa de Go, gracias a un desarrollo en el que confluían tecnologías de aprendizaje automático combinadas con un de árbol del decisión del tipo búsqueda Monte Carlo. Llegados a este punto vale la pena mencionar que en aprendizaje automático a demás de las redes neuronales artificiales tenemos otros algoritmos como son los árboles de decisiones, las reglas de asociación, los algoritmos genéticos, las máquinas de vectores de soporte, los algoritmos de agrupamiento y las redes bayesianas.
  • Finalmente vamos a detenernos en este viaje en el año 2017 con la publicación del paper Attention Is All You Need donde se presentan los transformers como un nuevo tipo de red neuronal que viene a mejorar a las convolucionales y a las recurrentes, proponiendo una estructura secuencial que procesa la información en forma de secuencia, como ocurre en una frase o un documento, en lugar de procesar la información en una estructura de grid, como en una red neuronal convencional. Para ello se utiliza el concepto de atención, que permite a la red considerar la importancia de diferentes partes de la secuencia al realizar tareas como la traducción automática o la clasificación de texto. La atención permite a la red aprender a enfocarse en las partes relevantes de la secuencia y desechar aquellas que no son importantes.

Nomenclatura para entender el funcionamiento de las redes neuronales

Para sacar provecho de la Inteligencia Artificial Generativa no es necesario conocer en profundidad el funcionamiento del Deep Learning ni de las redes neuronales que lo soportan, pero como muchas veces al hablar de esta tecnología se menciona el tipo de red neuronal en el que está basado y alguna característica específica de su arquitectura, puede ser interesante conocer algunos de los términos más habituales.

  • Neuronas artificiales: son las unidades básicas de una red neuronal y se encargan de procesar y transmitir la información.
  • Entrada: son las características o variables que se utilizan como entrada de información en la red neuronal.
  • Capas: una red neuronal puede estar compuesta por una o más capas de neuronas. Las capas de entrada contienen las neuronas que reciben las señales de entrada, mientras que las capas intermedias, también llamadas ocultas, y la capa de salida contienen las neuronas que procesan y generan la señal de salida.
  • Pesos: cada entrada de una neurona está asociada a un peso que controla la influencia de esa entrada en la salida de la neurona. Los pesos se ajustan durante el proceso de aprendizaje de la red neuronal.
  • Sesgos: son parámetros adicionales que se incluyen como una corrección que se aplica a la entrada de una neurona antes de que se calcule su salida, lo cual se utiliza para desplazar la función de activación de una neurona hacia arriba o hacia abajo, lo que permite ajustar la salida de la neurona de forma independiente de sus entradas
  • Función de activación: es una función matemática que se aplica a la suma ponderada de las entradas para producir la salida de la neurona. La función de activación introduce no linealidad en la red neuronal, lo que permite a la red modelar una gran variedad de relaciones complejas entre las entradas y las salidas.
  • Propagación hacia adelante: es el proceso de calcular la salida de la red neuronal a partir de las entradas y los pesos. La señal de entrada se propaga a través de las capas de la red neuronal hasta la capa de salida.
  • Función de costo o pérdida: es una medida de la diferencia entre la salida deseada y la salida real de la red neuronal. Se utiliza para evaluar el rendimiento de la red y para guiar el proceso de aprendizaje.
  • Optimizador: es un algoritmo que se utiliza en el entrenamiento de redes neuronales para mejorar sus capacidades predictivas con el objetivo de encontrar los mejores pesos y sesgos de las redes neuronales de manera que puedan producir las predicciones más precisas posibles.
  • Propagación hacia atrás: es el proceso de ajustar los pesos de la red neuronal en función de la función de costo y de la propagación hacia adelante. Se trata de un algoritmo de optimización que permite a la red neuronal aprender a partir de los datos de entrenamiento.
  • Entrenamiento: el entrenamiento es el proceso de ajuste de los pesos y los sesgos de las conexiones entre las neuronas artificiales en una red neuronal con el fin de optimizar su capacidad para realizar tareas específicas. La idea detrás del entrenamiento es que la red neuronal debe ser capaz de aprender de los datos de entrada y producir una salida correcta para una determinada tarea. Esto se lleva a cabo a través del uso de un conjunto de datos de entrenamiento, que consiste en pares de entrada y salida deseada. La red neuronal ajusta sus pesos y sesgos en base a la comparación entre su salida actual y la salida deseada para cada ejemplo en el conjunto de datos de entrenamiento. Este proceso se repite varias veces hasta que la red neuronal alcance un nivel aceptable de precisión en la realización de la tarea deseada. Así el éxito del entrenamiento depende de factores como la calidad y cantidad de los datos de entrenamiento, la estructura de la red neuronal, la elección de la función de pérdida y la optimización del proceso de entrenamiento.
  • Aprendizaje supervisado: es un tipo de aprendizaje automático en el que se utiliza un conjunto de datos etiquetados para entrenar un modelo de aprendizaje, donde se proporciona una entrada y una etiqueta deseada para cada ejemplo en el conjunto de datos, y el objetivo es que el modelo aprenda a producir la etiqueta correcta para nuevas entradas en base a los patrones de asociación encontrados en los datos de entrenamiento.
  • Aprendizaje no supervisado: es otro tipo de aprendizaje automático en el que en esta ocasión se utiliza un conjunto de datos sin etiquetar para entrenar el modelo, por lo tanto, ya que no se proporciona una etiqueta deseada para cada ejemplo en el conjunto de datos, el objetivo es que el modelo descubra patrones y estructuras ocultos en los datos, como son las agrupaciones y las asociaciones.
  • Aprendizaje por refuerzo: es un tipo de aprendizaje automático en el que un algoritmo aprende a tomar acciones en un entorno con el objetivo de maximizar una recompensa o refuerzo, de esta forma experimenta con diferentes acciones y recibe recompensas o penalizaciones en función de sus acciones. A partir de estas experiencias, el algoritmo ajusta su comportamiento para maximizar la recompensa en el futuro.
  • Finetuning:  consisten en utilizar una red neuronal que ya ha aprendido algunas características útiles para realizar una tarea en particular, pero ahora queremos aplicar esa red neuronal a un nuevo problema. Para ello se aprovechan los pesos y sesgos aprendidos previamente y se adaptan a un nuevo problema específico. Este proceso implica congelar los pesos y sesgos de una parte de la red neuronal preentrenada y continuar el entrenamiento solo en la parte restante de la red. Esto se hace porque se asume que la parte preentrenada de la red ya ha aprendido características generales útiles en un problema similar, y que estas características se pueden transferir y ajustar al nuevo problema. Esta técnica se utiliza cuando no hay suficientes datos disponibles para entrenar una red neuronal desde cero, o cuando se desea aprovechar las capacidades de aprendizaje de una red neuronal preentrenada.
  • Gran modelo de lenguaje: es un modelo de aprendizaje profundo que ha sido entrenado en un gran corpus de texto con el objetivo de comprender y generar lenguaje humano. Estos modelos utilizan técnicas de aprendizaje automático y procesamiento del lenguaje natural para desarrollar una comprensión profunda del significado del lenguaje y cómo se relaciona con otros conceptos. Los grandes modelos de lenguaje se utilizan en una variedad de tareas, incluyendo la traducción automática, la generación de texto, la respuesta a preguntas, la clasificación de texto, la búsqueda en internet, la asistencia virtual y la automatización de chats.

Y aquí es donde acaba la historia que os queríamos contar hoy, porque un gran modelo de lenguaje es precisamente lo que ha creado la empresa OpenAI a través de GPT-3 y su versión para conversar con humanos ChatGPT.

La respuesta de Google al huracán ChatGPT

Bueno, quizás mejor no terminamos aún, porque están pasando tantas cosas en este sector de la Inteligencia Artificial que vale la pena hacer un bonus para fijarnos en la respuesta que está dando o quiere dar Google a las diferentes iniciativas emprendidas por OpenAI y su socio Microsoft. Ya que tras la integración de GPT en Bing y otras herramientas como Teams, parece que no queda mucho para que Google haga lo propio con su buscador, con la presentación de Bard, que está basado en el modelo de lenguaje para aplicaciones de diálogo LaMDA

Además recientemente Google ha invertido 300 millones de dólares en la startup Anthropic, lo cual nos lleva a recordar que en este juego no solo participan las grandes empresas tecnológicas, sino que se está desarrollando un ecosistema increíble de nuevas empresas, algunas de las cuales muestran un futuro enormemente prometedor, como es el caso de Perplexity, que es una de las más avanzadas en este campo de los chats basados en Inteligencia Artificial Generativa.

Y ahora sí, para terminar, os dejamos algunos recursos para seguir aprendiendo sobre este apasionante tema, hasta la semana que viene que volveremos en Futurizable con más contenidos sobre GenAI.

  • Third Oasis: es un directorio de aplicaciones basadas en Inteligencia Artificial Generativa.
  • Dot CSV: probablemente el mejor canal de Youtube de divulgación sobre Inteligencia Artificial.
  • Monos Estocásticos: un nuevo podcast dedicado relatar toda la actualidad de este sector.

Etiquetas: , , , , , ,

Se busca ascensorista

Publicado el 06 febrero, 2023

Muy recomendable escuchar este podcast en el que dos profesores debaten al respecto de cómo la Inteligencia Artificial Generativa (GenAI), especialmente ChatGPT puede afectarles en su trabajo. De la conversación se pueden deducir muchas cosas y cada uno puede entenderlo de una forma, pero lo que está claro es que se vienen curvas y va a ser muy importante prestar atención a los cambios que esta tecnología va a producir a nivel global, no solo como en este caso en el sector educativo.

¿Ocurrirá con los profesores como con los ascensoristas? es imposible predecirlo, pero lo que es más sencillo deducir es que un profesor tendrá que dejar de hacer su trabajo como lo ha estado haciendo hasta ahora, porque se perderá totalmente el sentido y la utilidad. Por lo tanto, todo apunta a que los profesores tendrán que volver a la escuela a aprender de nuevo cómo hacer su trabajo o más bien, todos deberíamos empezar a pensar en cuál es la alternativa al sistema educativo actual, porque para perder el tiempo no es necesario pasarse toda la mañana metido en un aula.

Y si la Inteligencia Artificial Generativa va a dejar obsoleto el trabajo del profesor, igual va a ocurrir con el de diseñador, redactor, administrativo, … y no solo eso, también del médico, ingeniero, abogado, … porque en estos momentos ya hay una startup que está pensando en cómo usar los últimos avances en Deep Learning para desarrollar una aplicación que haga el trabajo mejor que todos estos profesionales y de forma más eficiente y barata.

El trato humano, dicen, será lo que nos permita seguir ganándonos el jornal, pero ahora parece que está ocurriendo todo lo contrario, vas al médico y cuesta un triunfo que levante la mirada del ordenador porque en los 5 minutos que dura la cita apenas tiene tiempo para tomar notas y generar el informe correspondiente de la visita. Pero dejemos de criticar a los médicos que bastante tienen con adaptarse a la normativa que impone la administración y pensemos si nosotros también estamos manteniendo la misma actitud en relación con el uso que hacemos de la tecnología, por ejemplo cuando estamos hablando con otra persona y estamos más pendientes de las notificaciones del móvil que de lo que la otra persona quiere contarnos.

Aprende a usar la Inteligencia Artificial Generativa en tu trabajo

Durante mucho tiempo la Inteligencia Artificial ha sido una tecnología fuera de nuestro alcance, como mucho, podíamos ser meros observadores o usuarios pasivos, meros consumidores, o víctimas de los algoritmos de recomendación. Pero resultaba imposible o muy complicado que cualquier persona pudiera usar esta tecnología de manera proactiva, a no ser que fuera un programador. Con la llegada de las GenAI esto ha cambiado y se va a producir un vuelco enorme a la gran mayoría de los trabajos que se basan en el conocimiento y se realizan de manera digital.

Por esto es por lo que hemos lanzado el Curso de Inteligencia Artificial Generativa y ChatGPT del que vamos a realizar en breve la segunda edición y en cuya primera edición participaron 30 profesionales que no estaban dispuestos a que este tsunami les pasara por encima, más bien, están empezando a desarrollar las habilidades necesarias para subirse a la ola y que esto les proyecte hacia el futuro como mejores profesionales digitales.

Y también por esto es por lo que desde Futurizable llevamos ya un par de meses, desde la aparición de ChatGPT compartiendo el conocimiento que vamos adquiriendo al respecto de cómo la Inteligencia Artificial Generativa puede convertirse en la compañera ideal para maximizar el valor que aportamos con nuestro trabajo, ayudándonos a ser más productivos e incluso también más creativos. Así que hoy también queríamos compartir parte de este conocimiento, en concreto cómo hablar con ChatGPT para que nos ofrezca los mejores resultados y estas son nuestras recomendaciones al respecto.

Vamos a dividir las recomendaciones en 3 grupos, ya que en general son consejos para obtener buenos resultados, pero unos de ellos están relacionados con la necesidad de poner en contexto a la GenAI para que entienda bien lo que necesitamos, luego es importante que le demos instrucciones precisas para obtener resultados concretos y finalmente también es importante que tomemos una serie de precauciones al respecto de cómo enfocamos la interacción con la Inteligencia Artificial.

1. Ponle en contexto

Una de las cosas que mejor funciona para obtener buenos resultados con ChatGPT es que entienda bien el contexto que rodea a la conversación que vais a mantener y el trabajo que va a tener que realizar al respecto. Cuanta más información le puedas proporcionar sobre ello mucho mejor, hasta el punto de que puedes darle incluso documentación que utilice como referencia para realizar sus respuestas. Dicho esto, veamos qué cosas podemos hacer para aportar contexto a la conversación

  • Explícale de qué quieres hablar: antes de hacerle una pregunta dale pistas sobre el tema del que quieras tratar, así podrá ser más específico y podrá darte resultados más precisos. Por ejemplo puedes explicarle que quieres hacer un trabajo para entender cómo funciona determinado fenómeno físico, la razón por la que quieres hacer ese trabajo y el resultado que te gustaría obtener.
  • Dile quién eres: si le explicas quién eres, cuáles son tus necesidades, podrá darte una respuesta más personalizada y que se adapte mejor a tus necesidades. Por ejemplo puedes decir que eres profesor y vas a usar las respuestas para mejorar la forma en la que realizas tus clases o que eres un abogado y quieres usar las respuestas para explicarle algo a tus clientes.
  • Pídele que asuma un papel: cuando le pides que asuma un rol o papel concreto dentro de una conversación ofrece mejores resultados que si le preguntas directamente. Por ejemplo puedes decirle que es un médico que tiene que explicar el resultado de un análisis a uno de sus pacientes.
  • Dile que es un experto en la materia: una forma de lograr respuestas más precisas es decirle que es un experto en la materia de la que trata la pregunta, así ampliamos el conocimiento sobre el contexto de la conversación. Por ejemplo le puedes decir que es un experto en temas inmobiliarios y te tiene que asesorar sobre los contratos relacionados con la compra de una vivienda, la hipoteca y la reforma.
  • Cuéntale una historia: para que entienda mejor el contexto de lo que quieres hacer u obtener le puedes relatar cómo se te ha ocurrido y darle detalles de cómo se ha ido produciendo tu razonamiento al respecto. Por ejemplo dile en qué momento se te ocurrió una idea, qué es lo que estabas haciendo y qué es lo que hiciste a continuación para actuar al respecto. Luego hazle que forme parte de la historia como un protagonista que tiene una función.
  • Háblale de un público objetivo: si le pides que piense en un público objetivo concreto ofrecerá una respuesta que se adapte mejor al nivel de comprensión o las circunstancias de esas personas. Por ejemplo le puedes pedir que lo explique de manera sencilla como si fuera para que un niño pequeño lo pueda entender.
  • Explícale para qué quieres la respuesta: para mejorar la información de contexto puedes darle indicaciones al respecto de para qué vas a usar la respuesta y de esta podrás obtener resultados más relevantes. Por ejemplo puedes decirle que tienes que tomar una decisión en tu trabajo o que quieres presentar los resultados a un grupo determinado de personas para que tomen una decisión al respecto.
  • Dale pistas sobre la respuesta esperada: cuando tienes una idea de lo que te gustaría obtener con la respuesta le puedes orientar al respecto y decirle que esperas que sea una respuesta de determinado tipo. Por ejemplo puedes darle algunos datos o información que tú conozcas sobre el tema y así podrá saber mejor qué información esperas obtener por su parte.

2. Dale instrucciones

No olvidemos que ChatGPT aunque pueda mantener conversaciones totalmente fluidas como si fuera una persona, sigue siendo una máquina y correspondientemente nos ayudará a obtener mejores resultados si le proporcionamos instrucciones precisas al respecto de cómo queremos que nos aporte la respuesta.

  • Dile que estructure la respuesta: si necesitas que presente la respuesta de una forma determinada le puedes decir que lo haga en forma de lista, de pregunta y respuesta, de tabla, … Por ejemplo dile que te lo presente en forma de entrevista donde un periodista realiza preguntas a un experto en determinada materia.
  • Pídele que incluya algunas palabras: dile qué palabras te gustaría que aparezcan en la respuesta, así podrá tener en cuenta esas palabras y darte una respuesta más elaborada o que encaje mejor con tus necesidades. Por ejemplo puedes darle nombre de personas, de lugares o de objetos que quieres que formen parte de la respuesta y que los utilice en el contexto correcto.
  • Pídele una descripción: para ampliar la información que te proporciona en la respuesta le puedes pedir que describa algunos elementos de la misma, como puede ser el lugar en el que sucede o las personas que intervienen. Por ejemplo si quieres que te explique en qué consiste un descubrimiento le puedes pedir que describa las circunstancias que llevaron a realizarlo, las personas que intervinieron y el lugar en el que se produjo.
  • Dile cómo quieres que responda: le puedes pedir que responda usando determinado estilo de escritura, como puede ser en forma de poesía o imitando a la forma en la que escribe determinado autor. Por ejemplo puedes pedirle que use el estilo de un escritor famoso y construya la respuesta como si fuera uno de los personajes de uno de los libros de ese escrito.
  • Dale instrucciones precisas: dile la forma que quieres que tenga la respuesta, la estructura del texto en cuanto a extensión, formato de los párrafos, lenguaje utilizado Por ejemplo dile que quieres que aporte la respuesta en tres párrafos, el primero de introducción, el segundo de explicación y el tercero de conclusión, además del tamaño que debe tener cada párrafo.
  • Pídele que te haga preguntas: para mejorar el conocimiento que tiene sobre lo que necesitas puedes pedirle que te haga preguntas así podrás aportarle la información que necesita para darle una mejor respuesta. Por ejemplo le puedes decir que te pregunte sobre qué personas van a leer la respuesta o sobre qué uso vas a dar a la respuesta.
  • Hazle preguntas: utiliza pregunta del tipo qué, quién, cómo, donde, por qué, cuándo, … para conseguir respuestas más variadas. Por ejemplo le puedes pedir que redacte una nota de prensa de lanzamiento de un nuevo producto que tenga la estructura quién, qué, dónde y cómo.
  • Dile que haga un resumen: cuando hayas recibido una respuesta puedes pedir que haga un resumen y de esta forma tendrás una visión más concreta al respecto. Por ejemplo si le has pedido que haga un artículo para un blog, puedes pedirle que te haga un resumen para compartir ese artículo en las redes sociales.
  • Dile que amplíe la información: puedes obtener mejores resultados cuando le pides que amplíe la respuesta, así será más creativo a la hora de responder y tendrás más información al respecto Por ejemplo cuando te haya dado una respuesta sobre un tema, aprovecha parte de su respuesta para que amplíe información introduciendo esas palabras en la conversación.
  • Pídele que defienda la opinión contraria: cuando ya te ha dado una respuesta concreta puedes pedirle que aporte una idea contraria y de esta forma podrás tener una visión contraria. Por ejemplo si te ha explicado determinada teoría desde un punto de vista ideológico le puedes pedir que lo haga desde otro punto de vista para contrastar la visión inicial.
  • Pide un número de respuestas: enumera el número de respuestas que quieres obtener, así podrás lograr más resultados y que estos sean más variados. Por ejemplo para escribir un artículo de 10 razones para hacer determinada cosa o 10 consejos para una persona que quiere aprender sobre determinado tema.
  • Dale el formato de la respuesta: ChatGPT puede responder en formato texto, en formato de código fuente con diferentes lenguajes de programación, en diferentes idiomas o con estructuras de tablas. Por ejemplo puedes pedirle el código fuente para hacer una página web, para crear una macro de excel o para realizar un videojuego, además puedes decirle en qué lenguaje de programación debe hacerlo.
  • Pídele pros y contras: cuando quieres tomar una decisión suele pensarse en los pros y contras, pero muchas veces nos vemos influidos por nuestros sesgos. Contrastar esa opinión con el conocimiento condensado que tiene ChatGPT puede aportarnos un nuevo punto de vista. Por ejemplo si tienes que decidir entre vivir de alquiler o comprar una vivienda, puedes decirle que te aporte los pros y los contras en base a tus condicionantes particulares, el lugar en el que quieres vivir o el momento del mercado en el que nos encontramos

3. Piensa tú primero

Lanzarse a hacer preguntas o pedir cosas a ChatGPT es muy tentador, sobre todo cuando ves los resultados tan alucinantes que está compartiendo la gente de sus interacciones con la GenAI, pero una vez que hemos hecho las primeras pruebas vale la pena que dediquemos algo de tiempo a pensar de qué forma nos estamos acercando a esta tecnología, con qué mentalidad lo estamos haciendo y si tenemos que modificar nuestra actitud para que el resultado sea óptimo.

  • Considera que puede equivocarse: ya sabes que ChatGPT muchas veces se equivoca, lo cual hay que tenerlo en cuenta y si no estás convencido con lo que responde contrastarlo con otras fuentes. Por ejemplo cuando preguntamos cosas muy concretas sobre personas, lugares, fechas u otros datos suele cometer errores o inventarse cosas. Es importante aprender a encontrar estos fallos.
  • Haz preguntas sobre temas que conozcas: para sacarle el mayor provecho a ChatGPT empieza por hacer preguntas de temas que sabes un poco, no demasiado, ni muy poco, así podrás validar la calidad de las respuestas. Por ejemplo si estás aprendiendo sobre algo nuevo de lo que ya has leído algunas cosas y tienes unas ideas básicas, puedes pedirle que amplie ese conocimiento que has ido adquiriendo.
  • No preguntes de lo que no sabes nada: ya que el mayor riesgo de ChatGPT es que a veces se inventa cosas si no sabe qué responderte, es importante que aprendas a identificar estas situaciones. Por ejemplo si le pides una lista de personas referentes en una materia, si son personas que hablan o escriben en inglés suele acertar pero si le dices que hablen español se lo puede inventar si no tiene ese conocimiento.
  • Pregunta varias veces lo mismo: ya que cada vez que responde lo hace «pensando» de nuevo, puedes obtener diferentes respuestas si haces diferentes preguntas y de esta forma tener una respuesta más enriquecida. Por ejemplo si quieres que te explique un tema científico hazle varias veces la misma pregunta y al darte resultados diferentes es como si varias personas te lo estuvieran explicando y podrás entenderlo mejor.
  • Pídele una alternativa: a veces la respuesta que recibes puede no encajar con lo que buscas y al pedirle una alternativa sí que te ofrece el resultado esperado. Por ejemplo si le preguntas sobre creación de empresas puede responder sobre cosas anticuadas, como hacer un plan de negocio, pero si le pides una alternativa puede hablarte de opciones más actuales.
  • Insiste en que responda: a veces no va a responder a determinadas preguntas que le hagas por su política de uso, pero puedes insistir y muchas veces cambia de opinión y sí que responde a lo que necesitas. Por ejemplo cuando le pides que escriba el código de programación dice que no puede hacerlo, solo te explica cómo hacerlo, pero si insistes sí que acaba escribiendo el código.
  • Plantea alternativas: puedes plantearlo diferentes alternativas o escenarios de cara a obtener respuestas más variadas o enriquecidas. Por ejemplo si le has dicho que se ponga en el papel de determinada persona puedes decirle que luego se ponga en el papel de otra persona con unas características diferentes.
  • Utiliza palabras clave: puedes usar palabras clave como informe, análisis, revisión, protocolo, describe o recomienda para obtener mejores respuestas. Por ejemplo si quieres que utilice un lenguaje técnico y proporcione unas instrucciones precisas puedes decirle que escriba un protocolo de actuación ante determinada situación
  • Utiliza ejemplos: si le explicas lo que quieres obtener a través de ejemplos podrá entenderte mejor y darte mejores resultados. Por ejemplo puedes decirle que eres una persona que quiere explicar a otra cómo hacer determinada cosa o que tienes una función dentro de una empresa y tienes que cumplir con ella.
  • Evita las contradicciones: cuando mantengas una conversaciones tienes que mantener una línea argumental porque ChatGPT va a tender a responderte para satisfacer tu interés y si te contradices también te dará respuestas contradictorias. Por ejemplo cuando estás aprendiendo sobre un tema tienes que mantener el mismo tema dentro de la conversación para que vaya mejorando las respuestas en base al conocimiento que va adquiriendo sobre el tema que quieres tratar.
  • Se creativo: atrévete a hacerle preguntas originales, extrañas o controvertidas, nunca sabes qué te va a responder y puede que te sorprenda. Por ejemplo le puedes preguntar que imagine que viene de otro planeta y que se encuentra con determinada situación o que lleva mucho tiempo dormido para ver como reacciona ante algo nuevo.

¿Qué te han parecido estas recomendaciones? nos encantaría conocer tu opinión al respecto y también qué nos cuentes para qué estás usando ChatGPT.

Etiquetas: , , , , ,

La Inteligencia Artificial y la explosión cámbrica del aprendizaje

Publicado el 26 enero, 2023

La explosión cámbrica hace referencia a un fenómeno que tuvo lugar durante el cámbrico temprano, en el que se aceleró significativamente la evolución de las especies que habitaban el planeta en ese periodo, lo cual desembocó en una diversificación repentina de organismos. En la actualidad se utiliza este concepto para reflejar una evolución acelerada, como la que estamos viendo en estos momentos para el ser humano gracias a la Inteligencia Artificial, que va a tener especial impacto en determinadas actividades, como es el caso del aprendizaje, al que vamos a dedicar este artículo.

Esto es así porque a raíz del surgimiento de las Inteligencias Artificiales Generativas (GenAI), especialmente de la presentación de ChatGPT, se ha iniciado una verdadera revolución en el sector educativo, la enésima revolución tras la llegada de la informática, Internet y los smartphones, pero que en esta ocasión realmente podría, o debería, cambiarlo todo.

Aprendamos juntos

Una de las cosas que más nos ha gustado del curso sobre GenAI y ChatGPT que hemos realizado esta semana, ha sido escuchar a profesores contarnos cómo están usando estas herramientas para mejorar su trabajo, especialmente involucrando a sus alumnos en el proceso. Bueno también nos ha gustado ver a padres que se lo están enseñando a sus hijos, pero eso es otra historia.

Por esto nos atrevemos a proponer un cambio en el modelo educativo, pasemos del actual en el que el profesor sabe y el alumno no sabe, por uno nuevo en el que el profesor sabe, pero quiere aprender más y comparte ese proceso de aprendizaje con el alumno. Como un maestro que mejora en su maestría a media que el aprendiz valida sus conocimientos y le motiva para querer aprender más, para ser mejor.

El fin de las tareas

Si ya de por si antes las tareas nos parecían algo inútil, ahora ya es ridículo que el profesor mande una tarea al alumno que acabará haciendo una máquina. Absoluta pérdida de tiempo para el alumno, que no habrá aprendido nada más que a usar la máquina y para el profesor, que no debería conformarse con mantener al alumno ocupado, sino que debería tener como objetivo principal su aprendizaje, o al menos que aprueben su asignatura, si es que está correctamente definido el sistema de evaluación.

Aprovechemos este sinsentido para eliminar las tareas para casa y aprovechemos la tecnología para involucrar mucho más a los alumnos en su proceso de aprendizaje, que pasen a ser verdaderos protagonistas y que el profesor se convierta en un mentor en todo ese proceso. Entonces, cuando hayamos logrado que los alumnos sientan una verdadera motivación por aprender, no solo querrán aprender durante el tiempo que están en clase, sino que cuando vuelvan a casa seguirán aprendiendo por su cuenta.

Preparados para el futuro

Si las predicciones de los expertos en tecnología se cumplen, en pocos años la mitad de los trabajos que ahora conocemos habrán sido ocupados por la Inteligencia Artificial y la robótica, por lo tanto la mitad de las personas que ahora cursan sus estudios no podrán encontrar trabajo, por muy bien que se hayan preparado para ello. Por lo tanto o nos damos prisa en inventar nuevos trabajos o nos dirigimos a un futuro con unas tasas de desempleo tan altas que va a ser muy complicado mantener el equilibrio social.

El sector educativo no puede continuar al margen de esta situación, es momento de asumir la responsabilidad. No se puede seguir educando a los jóvenes para un futuro que no existe. El mundo ha cambiado y no se parece en nada al que representan los planes de estudios de la educación primaria, secundaria y universitaria. Qué yo sepa aún no hemos inventado la máquina que detiene el tiempo, pero el sector educativo parece disponer de esa máquina, es más algunos profesores se ofenden porque los intereses de los alumnos han cambiado, es más culpan a estos del problema, bueno, y también señalan a la tecnología como causa del mismo.

Lo malo es que nada apunta a que vayamos a volver a la época de la pluma, el tintero y el candil, así que o nos adaptamos a los cambios que ha provocado la tecnología en las personas y la sociedad o solo nos quedará esperar que la jubilación llegue pronto y no se vea la universidad obligada a hacer recortes de personal, porque los alumnos siguen empeñados en pensar que ya no vale la pena tener un título universitario y pasar 4 años aprendiendo cosas que no les van a ayudar a tener un buen trabajo en el mundo real.

El uso de las GenAI en la innovación educativa

Borja Garzón va a contarnos a continuación su experiencia llevando al ámbito educativo las Inteligencias Artificiales Generativas, tras 11 años trabajando en la innovación educativa a través de metodologías ágiles y design thinking. Es experto en el diseño de planes de formación basados en lifelong learning e implementación tecnología educativa, con foco actualmente en la integración de la IA en la educación. Además trabaja como Chief Learning Officer ayudando a las organizaciones que buscan navegar la incertidumbre y los contextos complejos a través de estrategias de aprendizaje. También es facilitador del aprendizaje y los procesos de innovación situando el conocimiento como core del negocio. Su último proyecto con el propósito de abrir el imaginario de uso e implementación de la IA es ofrecer el curso Inteligencia Artificial y oportunidades para la formación.

¿Cómo piensas que la Inteligencia Artificial va a impactar en el mundo de la educación en los próximos años?

Recientemente ya estamos viendo como el boom y toda la expectativa generada en torno a todo el ecosistema de herramientas ya disponibles y aplicables está generando un impacto en todos los sectores. Hace unos días lancé una encuesta con esta pregunta: ¿Cómo afrontas la disrupción de las Inteligencias Artificiales en tu trabajo? el 51% respondió que con optimismo y declarando que le son de ayuda, el 40% con incertidumbre y aprendiendo y tan solo un 8% con indiferencia y un 2% con miedo. Con esto quiero decir que el panorama es más optimista de lo que a priori pinta, respecto a impactos negativos o miedos. Lo cual no quita que hay alta incertidumbre y que la educación no es y no debe ser ajena a ello.

Es más, ya estamos viendo noticias como por ejemplo en New York han prohibido el uso de ChatGPT en los centros de formación (algo que ya ocurrió en Madrid cuando prohibieron el uso de los dispositivos móviles…). Por otro lado, ya salen casos de buenas prácticas de uso de la IA y sus herramientas en la educación, profesores que enseñan a sus alumnos a utilizarlas con sentido común y pensamiento crítico… Creo firmemente que este último es el camino, no prohibirlo y si enseñar su buen uso y sacarle el mejor de los partidos, de otra forma será dar la espalda a una realidad.

En cuanto a si puedo pensar que la IA eliminará a los profesores pues la respuesta es un NO rotundo. Creo que será parte de un asistente académico que ayudará a la personalización del aprendizaje, reconociendo e identificando mejoras de forma temprana, haciendo uso de los datos académicos del estudiante pudiendo llegar a recomendar acciones concretas y contenidos concretos, ayudará a la atención a la diversidad rompiendo barreras de idiomas, niveles, comprensión, diferentes ritmos de aprendizaje y motivaciones… Por ejemplo, usar herramientas de IA de subtitulado automático, de conversión de texto a audio o viceversa sin duda ayuda a personas con capacidades diversas.

Si bien es cierto en la educación, históricamente la tecnología siempre ha llegado tarde, pero creo que en esta ocasión no va a ser así pues muchas de las aplicaciones van precisamente a impactar en la generación de contenidos, asistentes virtuales, de gran utilidad en la formación. Por otro lado, la facilidad de uso minimiza la adopción de estas tecnologías y al no necesitar inversión en dispositivos será mucho más rápido que por ejemplo en el caso de la realidad extendida o metaverso.

Otro tema es cómo la burocracia que conlleva el sistema educativo lo facilitará, pero sin duda los estudiantes ya lo están usando, ya es una realidad. Y esto empujará a que el sistema educativo se transforme. Por ejemplo y lo primero en lo que impactará será en las evaluaciones. Por fin, podremos empujar a que los estudiantes adquieran habilidades de pensamiento crítico, comunicación, creatividad (y todas aquellas habilidades y competencias que nos hacen humanos) en lugar de la mera superación de tareas como exámenes o trabajos repetitivos en los que la IA nos da mil vueltas y los alumnos ya recurren a ellas.

Por otro lado, ya hay estudiantes que usan la IA conversacional para hacer resúmenes, preguntar dudas académicas, obtener preguntas para ponerse a prueba, etc. Sin duda, una buena práctica. Como conclusión diré que no debemos tener miedo de si nos va a quitar trabajo o no sabremos «competir» con estas herramientas. Al contrario, están para hacer nuestro trabajo más eficiente y dejarnos tiempo para lo importante: facilitar el aprendizaje de nuestros estudiantes. Lo que si puede poner en riesgo nuestro trabajo es no saber dominarlas y usarlas pues entonces será otra persona que si las use la que nos adelantará.

Defiendo firmemente que no sabemos qué profesión tendrán los alumnos que ocupan las aulas hoy, muchas de ellas ni siquiera existen por lo que enseñarles la competencia «aprender a aprender» y la capacidad de hacerse buenas preguntas más que responder siempre las mismas o memorizar, deben ser el tema central que aborde la transformación de la educación y la formación.

¿Cómo crees que esta tecnología puede mejorar aprendizaje en el aula?

La tecnología debe estar presente en el aula siempre y cuando no sea un punto de fricción o implique que haya personas que no tengan acceso a la misma.

No obstante, la tecnología está presente en la sociedad e impacta de forma innegable en la misma por lo que la educación no puede estar alejada de esta realidad y debe aplicarla y ayudar a su buena utilización.
Creo que la puede mejorar en estas líneas:

  • IA aplicada a la curación de contenidos y personalización de los mismos.
  • Análisis del sentimiento y emoción para la detección temprana de necesidades específicas, mejorar en el engagement y obtener feedback en tiempo real.
  • Mejorar la seguridad en las plataformas de formación. Detectando casos de acoso por ejemplo.
  • IA aplicada a la generación de contenido en vídeo o audio a través de un texto o contenido preexistente. Muy útil para aplicar metodologías de flipped classroom entre otras.
  • Soluciones multi-idioma y locución.
  • Como no, para generar storytellings realistas e ilustraciones que ayuden a personalizar los contenidos a nuestro alumnado y al mismo tiempo sumar al aprendizaje significativo.
  • Como asistentes académicos, usar Chatgpt para resolver dudas, conceptos, generar preguntas, resumir, esquematizar, apoyar, reforzar…

Seguro que me dejo muchas, y es que opino que es momento de abrir el imaginario y de forma colaborativa abrir un observatorio en la red de aplicaciones y usos que le podamos dar.

¿Qué tipo de herramientas de Inteligencia Artificial recomiendas para empezar a trabajar con ellas en el ámbito de la educación?

Como herramientas ya existentes recomendaría empezar por ChatGPT. Por todos conocido y en el que los estudiantes están tomando la delantera en su aplicación. Una herramienta de IA (o bueno verdaderamente de machine learning) tiene el potencial suficiente para ayudarnos como si de un asistente académico se tratara, donde es más importante saber y dominar qué preguntar que las propias respuestas que da. Para mi esto es ya por sí un ejercicio de incalculable valor pedagógico ya que vivimos en un momento de la historia en el que la incertidumbre es tan alta que hace que los retos a los que nos enfrentamos sean complejos (que no complicados). Ocurre que ante un problema complejo no existen soluciones previas ni una válida certeramente, por lo que la capacidad de aprender, de generar conocimiento nuevo es esencial y de vital importancia. Esto sólo se consigue haciéndonos cada vez mejores preguntas en lugar de responder siempre a las mismas (como estamos acostumbrados a hacer de forma brillante ya que se nos ha formado para ello).

Sin duda empezaría por esta para enseñar sus bondades más arriba apuntadas.

Otro tipo de herramienta que utilizaría serían aquellas que son capaces de generar contenidos en múltiples formatos (vídeo, audio, imagen) a partir de una petición previa con un prompt o incluso a través de tus contenidos previos que tengas. Por ejemplo, generar vídeos a partir de tus presentaciones o pdfs me parece un uso que ayuda al trabajo y comunicación asíncrona que a su vez puede ayudar a afianzar conceptos y aplicar metodologías de aprendizaje activas y de flipped classroom donde profesores y estudiantes pueden crear sus contenidos de forma asíncrona y aprovechar los espacios físicos y síncronos a actividades que no sean la mera transmisión de la teoría.

Creo que este sería un buen comienzo simple que no sencillo.

¿Cómo crees que la Inteligencia Artificial puede ayudar a personalizar el aprendizaje para los estudiantes?

Sin duda creo que es uno de los mayores beneficios que puede traer la IA a la educación. Y es que la personalización del aprendizaje es uno de los grandes retos y que hay tantas formas de aprender como personas existimos, sumado a que no todos partimos del mismo punto. Dicho esto, la IA creo que ayudará haciendo uso de los datos académicos y del histórico del estudiante. La IA es capaz de analizar grandes volúmenes de información y detectar casos concretos de necesidades específicas donde cada estudiante necesita refuerzo, feedback, contenidos específicos etc. Puede sin duda hacer un mejor uso de los datos que los profesores cuyo tiempo y capacidad de análisis de grandes volúmenes es limitado. Imaginemos que una aplicación de IA puede tener el contexto sociodemográfico de un estudiante, su histórico de evaluaciones, sus calificaciones, sus métricas de seguimiento, asistencia, interacción… y que la IA puede ayudar a analizar todos estos datos y dibujar al profesor un modelo que anticipe abandonos o fracasos escolares tempranos o incluso le diga las áreas en las que desarrollar acciones concretas para dicho estudiante. Sería maravilloso y permitiría al profesor anticiparse, detectar y ocuparse de lo realmente importante.

¿Qué desafíos piensas que enfrenta la educación con la llegada de la Inteligencia Artificial?

El más inminente y creo que hay que darle gracias, al cambio de los sistemas de evaluación basados en la mera calificación de exámenes y trabajos repetitivos. Dado que con las herramientas como ChatGPT va a ser, por lo menos por ahora, imposible detectar la autoría de los mismos, los profesores se deberán ver forzados a innovar en las evaluaciones y todo ello no va en contra de la legislación educativa. Básicamente quizás veamos una evaluación en competencias real y no en una mera evaluación al puro estilo PISA… que de poco sirve y poco aporta a la sociedad y a los estudiantes.

Sin duda el otro gran desafío será educar y formar en el uso de esta tecnología así como tratarla como una competencia más. Embeberla en el currículum académico y usarla como una herramienta más como son las tablets, los proyectores o la tiza. Todos ellos elementos imprescindibles.

Por otro lado, el gran obstáculo va a ser la burocracia y la barrera de adopción de nuevas herramientas y metodologías de trabajo en el sistema educativo.

No me gustaría dejar tampoco de lado que es preciso un avance y asentar unas líneas básicas que sean las directrices éticas en las que se fundamente el uso y aplicación de la IA en la educación y por tanto en el impacto de la sociedad. Contemplando y resolviendo la igualdad de oportunidades, la universalización, la atención a la diversidad, la privacidad, la seguridad, etc.

Una de las problemáticas que ya se están tratando legalmente y a las que se enfrentan las empresas de desarrollo de Inteligencia Artificial es el cumplimiento de la ley de GDPR. La ley de protección de datos contempla el derecho a la información. Esto es que cualquier usuario puede solicitar a las empresas responsables de estas aplicaciones de IA a informar del origen de los datos, tratamiento, etc. Pues bien el reto es mayúsculo pues al basarse en machine learning es a día de hoy imposible conocer o averiguar con certeza cómo la IA llega a darte una solución determinada y no otra. Es decir no puede aportar información sobre cómo se han tratado los datos pues lo que ocurre en la IA es como una caja negra (por así decirlo).

¿Cuáles son tus planes para sacarle provecho a esta tecnología?

En primer lugar, aprender y mostrar curiosidad así como investigar a través de experimentar con las diferentes herramientas existentes y las que van saliendo. Esto va tan rápido que a veces cuesta poner foco y pensar en qué y cómo aplicarlas a tu sector y casos de uso concretos. No obstante, lo que trato de hacer es crear comunidad y abrir el imaginario precisamente para ir averiguando y desgranando en qué nos pueden ayudar.

¿En la práctica? Pues estoy usando Copilot para ayudarme a planificar y diseñar formaciones, talleres, cursos. Es una IA en la que le das el contexto, las temáticas y con un entrenamiento previo puedes obtener una planificación educativa completa en la que te propone las lecciones, los temas a tratar, los objetivos, las actividades, la evaluación… e incluso las presentaciones… Alucinante para aquellos que somos diseñadores instruccionales o nos encargan diseñar experiencias de aprendizaje ya que esto te da ese orden y sentido al que antes tenías que recurrir a un experto en la materia y confiar en su know how. Ahora puedo ser más eficiente y recurrir a una validación posterior en lugar de empezar de cero.

Igualmente, mi nuevo compañero de trabajo, aka ChatGPT, me ayuda a resumir, a crear las introducciones teóricas de ciertos temas, a diseñar evaluaciones, a proponer actividades, ya tengo un listado de prompts de aplicación práctica para la educación que me ayudan a saber que pedirle y como. Lo que comentaba anteriormente, aprendiendo a preguntar mejor y a saber qué preguntar más que buscar respuestas correctas.

Por otro lado, no soy experto, más bien soy un desastre en temas de gestoría por lo que estoy usando la IA para generar plantillas de contratos, plantillas de facturas, control de pagos y generación automática de facturación, etc. Esto vinculado a herramientas nocode es una maravilla.

Por último, me encuentro jugando con herramientas de generación de imágenes y los cursos que diseño ya no usan imágenes de banco si no que son únicas y diseñadas específicamente para estos casos.

Finalmente, mi plan e invitación es que sumemos fuerzas, creemos comunidad y desarrollemos soluciones de nicho aplicadas a la educación. Me encantaría participar en el diseño y desarrollo de una solución de IA aplicada exclusivamente a la educación.

Etiquetas: , ,

Una vida con la Inteligencia Artificial

Publicado el 16 enero, 2023

Me encanta la idea de que el auge que estamos viviendo de la Inteligencia Artificial se base en el concepto de aprendizaje y no tanto en el de conocimiento. Que las máquinas estén logrando hacer cosas sorprendentes no se debe a que de por sí sean muy inteligentes o tengan un gran conocimiento, sino a su capacidad de aprender, y al igual que hacemos los humanos, de imitar. Esto derriba mucho mitos y debe hacernos pensar en la importancia que tiene ser un aprendiz frente a la que hemos dado durante mucho tiempo a ser un experto.

De hecho en el ámbito de la Inteligencia Artificial la competición durante décadas en lo que se refiere a desarrollo tecnológico se refiere, se produjo entre los que apostaban por el desarrollo de sistemas expertos, donde se diseñaba la máquina siguiendo las instrucciones que le proporcionaba un experto en determinada materia, frente a los que consideraron que era mejor replicar la forma en la que las personas aprendemos y la manera en la que funciona nuestro cerebro, gracias a la estructura de las redes neuronales.

Sin entrenamiento no hay victoria

Durante mucho tiempo la gente ha asociado la inteligencia con aquellas cosas que resultaban complicadas, por ejemplo la capacidad de cálculo, la memorización de grandes cantidades de información o el desarrollo de la ingeniería, sin embargo no era tan habitual decir que alguien era muy inteligente porque supiera hacer cosas complejas, como comunicar muy bien, tomar buenas decisiones o ser capaz de plasmar la esencia de la vida a través del arte. En lo primero, lo que normalmente consideramos como inteligencia, hacer cosas complicadas, hace décadas que la Inteligencia Artificial nos gana por goleada. Pero esto no era suficiente, porque la mayoría de las cosas que hacemos en la vida no son complicadas sino complejas, como socializar y  comunicarnos, desenvolvernos por el mundo y poner en marcha nuevos negocios.

Y aquí es donde se ha producido un gran salto en el último año con la irrupción de las Inteligencias Artificiales Generativas a partir de la invención de los transformers, que son una arquitectura de red neuronal utilizada para tareas de procesamiento del lenguaje natural, como el análisis de sentimientos, la traducción automática y la generación de texto. Una arquitectura introducida por Google en el artículo Attention Is All You Need en 2017.

Entender de dónde venimos también puede ayudarnos a ser conscientes de la relevancia de lo que está ocurriendo en estos momentos y sobre todo a ser conscientes de que el entrenamiento que ha estado haciendo la Inteligencia Artificial en los últimos años comienza ahora a ofrecer las primeras victorias:

  • Filtros de SPAM: probablemente la primera gran aplicación del aprendizaje profundo que la mayoría pudimos disfrutar, aunque muchas veces sin ser conscientes de ello, pero que sin duda es algo de lo que tenemos que estar muy agradecidos por el gran valor que nos aporta. Un ejemplo de la alta especialización con la que comenzó a trabajar la Inteligencia Artificial y un caso con el que compararse de cara a la gran evolución que se ha producido desde entonces.
  • Traducciones automáticas: la típica actividad en la que de primeras te encuentras con mucha incredulidad u oposición, pero que poco a poco va demostrando la gran efectividad que puede ofrecer la Inteligencia Artificial cuando realiza funciones muy específicas. Y precisamente esa misma oposición que vimos hacia las traducciones hace pocos años la estamos viendo repetida ahora con herramientas de generación de texto como ChatGPT.
  • Algoritmos de recomendación: el gran beneficio que muchas empresas, como por ejemplo Amazon o Netflix han podido obtener gracias a los sistemas de recomendación de productos o contenidos, ha incentivado enormemente la inversión en este tipo de tecnologías, lo cual por otro lado ha abierto la puerta a determinadas problemáticas como el excesivo control que estas empresas han llegado a tener sobre los intereses de sus clientes.
  • Asistentes virtuales: con el furor que estamos viendo tras la presentación de ChatGPT, el trabajo que hacían los asistentes virtuales, como Siri y Alexa, ha quedado eclipsado. Quizás una razón de la que ahora estamos tan sorprendidos por la capacidad de ChatGPT se puede deber a la gran diferencia que muestra respecto de los modelos anteriores. En todo caso siempre es importante ser conscientes del valor que tenía que estos asistentes virtuales fueran capaces de entender lo que les decimos , aunque luego no pudieran hacer mucho al respecto.
  • Sugerencia de textos: cada vez que Google iba introduciendo más utilidades en Gmail, como los filtros de spam, el traductor automático y luego la sugerencia de textos, nos fuimos dando cuenta del valor que podía tener la Inteligencia Artificial Generativa, pero las dosis de utilidad que nos iban ofreciendo eran tan pequeñas que ahora lo de ChatGPT sí que es una verdadera explosión de utilidad en relación con las iniciativas anteriores.
  • Conducción autónoma: cambiando totalmente de tercio, dejamos el reconocimiento de texto y de voz para tratar el reconocimiento de imagen y pensar en lo importante que es que podamos depositar nuestra confianza en una tecnología que toma decisiones por nosotros a la hora de conducir un vehículo, con el riesgo que esto supone y sin embargo se haya comprobado que precisamente resulta más seguro que cuando conducimos exclusivamente las personas.

Matemáticas + Informática + Internet = Inteligencia Artificial

También resulta interesante pensar en que ha sido la socialización digital, la que se ha producido a través de redes sociales, blogs, foros, wikis, … lo que ha permitido que podamos contar con los datos, que son el último eslabón necesario en la cadena del desarrollo de la Inteligencia Artificial,  lo cual también coincide con la forma en la que se produce el aprendizaje humano: en sociedad y a través de las interacciones con otras personas.

Podíamos tener las matemáticas con algoritmos de redes neuronales desarrollados por gente muy inteligente, podíamos tener infraestructuras tecnológicas enormes, creadas con la inteligencia ingenieril del ser humano, pero no ha sido hasta que hemos sido capaces de añadir a esta tecnología el componente social que proporcionan los datos generados por las propias personas a través de su actividad en la red,  que no hemos podido decir que contamos con una Inteligencia Artificial que resuelve necesidades genéricas de las personas y no solo aspectos concretos de su actividad.

Attention Is All You Need

Aprovechando el titular del artículo sobre los transformers vamos a intentar visualizar escenarios futuros para nuestra sociedad en base a la evolución que está teniendo la Inteligencia Artificial:

  1. Se cumplen las predicciones de la ciencia ficción: esperemos que no ocurra lo de Terminator, pero quizás es más probable que vayamos a algo parecido a lo que nos muestra la película WALL-E, cuyo nombre precisamente ha servido de inspiración a DALL-E, que es el primer modelo de generación de imágenes basado en redes neuronales que conocimos de OpenAI y también a otro más reciente llamado VALL-E desarrollado por Microsoft. Ante este posible escenario, donde las máquinas toman tanto protagonismo que nos dejan a los seres humanos en la cuneta, es muy importante que estemos preparados para ir llevando la iniciativa en cada momento, como por ejemplo ahora que ChatGPT puede hacer muchas cosas que hace poco parecerían ciencia ficción. Por lo tanto deberíamos prestar mucha atención a lo que está sucediendo y usar estas innovaciones todo lo que sea posible, porque eso nos generará una ventaja frente a los que se queden impasibles viendo llegar el tsunami de la Inteligencia Artificial sin hacer nada al respecto.
  2. La Inteligencia Artificial nos ayuda a crear un mundo mejor: con ChatGPT tenemos dos opciones, dedicarnos a inundar Internet con refritos de contenido tremendamente optimizados para el SEO, o usar todo su potencial para solucionar los Big F**king Problems que enfrenta la humanidad. Por eso lo primero que hemos hecho nosotros ha sido organizar un grupo de trabajo entre leinners y sngulares en el que buscar oportunidades de proyectos que se puedan desarrollar con esta tecnología y también lanzar el curso de GenAI y ChatGPT con el que queremos que cada vez más profesionales aprendan a usar esta tecnología para lograr un mayor impacto con el trabajo que realizan cada día. A este respecto la Inteligencia Artificial debería ayudarnos a ser más productivos y a las empresas a ser más competitivas, para poder ofrecer mejores productos y servicios a la sociedad, lo cual nos permita mantener el progreso que la digitalización nos ha proporcionado en las últimas décadas en materia de salud, educación, energía, alimentación, cultura, …

Etiquetas: , , ,

De la automatización cognitiva a la amplificación cognitiva

Publicado el 09 enero, 2023

Cuando IBM dio a conocer su tecnología Watson apenas se hacía referencia al concepto de Inteligencia Artificial, sino que se hablaba de computación cognitiva y quizás deberíamos rescatar esta forma de referirnos a la tecnología a la que solemos denominar como IA porque expresa mejor su verdadero estado de desarrollo. Lo digo porque en las últimas semanas, tras la aparición de ChatGPT se está generando mucho debate al respecto de si se debería hablar de Inteligencia, porque no tiene verdadera capacidad de razonar y seguramente ni siquiera es necesario que lo tenga, porque precisamente para eso estamos los humanos.

El caso es que si le preguntamos al propio ChatGPT ¿Cuál es la diferencia entre la entre cognición e inteligencia? nos explica que la cognición se refiere al proceso de adquirir, procesar, almacenar y utilizar la información. Se trata de un término amplio que incluye procesos mentales como la percepción, el razonamiento, el aprendizaje, la memoria y el lenguaje. La inteligencia, por otro lado, se refiere a la capacidad de razonar, planear, resolver problemas, pensar abstractamente y aprender de manera rápida y eficiente. Es una medida de la habilidad de una persona para adaptarse y aprender de su entorno. En general, se puede decir que la inteligencia es una parte importante de la cognición, pero no es lo único que la conforma.

Como puedes ver lo de razonar se encuentra tanto en la cognición como en la inteligencia, por lo que tampoco vamos a salir de dudas con esta explicación, ni siquiera leyendo las definiciones en Wikipedia de Cognición e Inteligencia va a ser sencillo llegar a una conclusión, por lo que quizás mejor vamos a dejar de pensar cómo llamar a ChatGPT en particular y las GenAI en general, para enfocarnos en la utilidad que puede ofrecernos. Sobre todo considerando que ni siquiera los humanos obramos siempre usando el razonamiento, de hecho actuamos en muchas ocasiones justo como la hace la inteligencia artificial, en base a una programación, que en nuestro caso son los instintos y también los sesgos cognitivos.

Pero hablando de la utilidad que puede ofrecernos esta tecnología es interesante entender su estado de desarrollo porque nos ayudará a encajar nuestra expectativa al respecto y comenzar a sacarle todo el provecho que sea posible. Para ello nos vamos a fijar en la explicación que realiza François Chollet en su artículo la IA es automatización cognitiva, no autonomía cognitiva, donde nos habla de la Asistencia Cognitiva que es aquella IA que puede ayudarnos a dar sentido al mundo y tomar mejores decisiones. IA para ayudarnos a percibir, pensar, comprender y hacer más. IA que podrías usar como una extensión de tu propia mente. Hoy en día, algunas aplicaciones de aprendizaje automático entran en esta categoría, pero son pocas y distantes entre sí. Sin embargo, creo que aquí es donde reside el verdadero potencial de la IA.

Y aquí es donde entra en juego ChatGPT porque si lo sabemos usar adecuadamente, si sabemos realizar las preguntas correctas puede ser esa asistencia o esa amplificación de nuestra capacidad cognitiva, que nos ayudará a hacer mejor nuestro trabajo, a mejorar nuestra toma de decisiones y a amplificar nuestro potencial profesional y personal. Del mismo modo que la tecnología puede aumentar nuestra capacidad sensorial para ver y oír mejor, también lo puede hacer para ayudarnos a pensar mejor, sin que esto implique que tenga que pensar por nosotros.

Algunas ideas para empezar a usar ChatGPT

Igual que ocurre con los vehículos que tienen capacidad de conducción autónoma, donde es obligatorio mantener determinados hábitos, como llevar las manos sobre el volante y la vista puesta en la carretera, porque las características de la carretera o del entorno pueden hacer que se desactive el sistema autónomo, con las herramientas GenAI también tenemos que aplicar ciertos criterios que nos ayudarán a sacarle el máximo partido y evitar posibles problemas que puedan generarse al respecto. Vamos a continuación algunas de estas recomendaciones:

  1. Comienza por preguntarle sobre temas de los que sabes ya un poco, pero no de los que sabes mucho o de los que no sabes nada, ya que si las expectativas que has puesto en ello son muy altas, te puede defraudar y esto puede que haga que no quieras seguir en la conversación. Sin embargo si le preguntas de cosas de las que ya tienes cierto conocimiento, poco a poco le puedes ir poniendo a prueba, viendo hasta donde es capaz de llegar, en qué se equivoca y en qué te sorprende, porque así podrás comprobar el potencial que tiene para ayudarte a seguir aprendiendo de un tema del que tienes interés.
  2. Observa lo que otros están haciendo para sacarle provecho a esta tecnología, porque es con situaciones reales como mejor se aprende y también mejor se entiende el potencial que puede tener. Es curioso que precisamente estemos siendo los humanos los que tengamos que estar encontrando estos casos de uso y no directamente la propia tecnología, lo cual representa muy bien esa dualidad donde su gran potencial no está en dejarla que trabaje de manera independiente sino que seamos nosotros los que trabajemos codo con codo con ella.
  3. Aprende a descubrir los errores como parte del proceso de trabajo con las GenAI, porque como sabes, uno de los principales problemas de esta tecnología es que no resulta infalible, no deberíamos hacer los cálculos para construir un avión o un puente con este tipo de IA’s, pero sí que pueden ayudarnos a muchas cosas en las que el riesgo que asumimos no es tan alto. Por lo tanto aprender a diferenciar cuándo debemos fiarnos de ella es tan importante como cuando se conduce un coche autónomo saber cuándo deja de tener el control porque se ha desactivado la función de conducción autónoma, por ejemplo al ir a tomar una rotonda.
  4. Hazlo como un juego, aprender muchas veces puede ser divertido y también trabajar debería proporcionarnos ese tipo de satisfacciones. Así que la mejor forma de empezar a usar esta tecnología es como en un juego donde tienes un contrincante o un compañero con el que vas interactuando, como si fuera una partida de ping pong. De esta forma, como en todo juego o deporte, podrás ir viendo cómo vas mejorando a medida que lo practicas y el resultado acabará siendo mucho mejor que si comienzas con la presión de obtener buenos resultados a corto plazo.
  5. Encuentra en lo que es mejor la GenAI en base a las necesidades que tú puedas tener. Por ejemplo no debe ser casualidad que ChatGPT sea tan malo para las matemáticas, del mismo modo que muchas personas pueden ser malas para las matemáticas pero buenas para la comunicación, y viceversa, de lo que se trata en este caso es de encontrar aquello en lo que es capaz de hacer las cosas mejor que nosotros, o quizás no mejor pero sí de forma más rápida, barata o eficiente.

Aprendiendo en comunidad a usar la Inteligencia Artificial

Ser autodidacta está muy bien, de hecho ahora con las GenAI ya no se podrá decir que estás aprendiendo completamente en solitario, sino con la asistencia de esta tecnología que puede ser muy buena compañera en este camino del aprendizaje. Pero también aprender en comunidad es tremendamente recomendable, sobre todo cuando se trata de algo tan nuevo en donde apenas nadie tiene ventaja ni puede considerarse aún un experto.

Por esto, desde Futurizable queremos contribuir a mejorar la productividad de profesionales y empresas usando la Inteligencia Artificial, para lo cual vamos a desarrollar en los próximos meses varias iniciativas relacionadas con la divulgación y el aprendizaje, de las que os iremos informando por aquí. Y la primera de ellas es el Curso de Inteligencia Artificial Generativa y ChatGPT que vamos a realizar los días 17, 18 y 19 de enero con horario de 17 a 19h, de manera online y síncrona.

Queremos que sea un curso 100% práctico y colaborativo, que además estará mentorizado para que cada participante pueda sacarle el máximo provecho a estas 6 horas de trabajo y a todas las dinámicas que en él se generen. Luego nuestra intención es ir creando comunidad con los participantes en los cursos de cara a generar un espacio de aprendizaje continuado en el que nos podamos mantener al día de las novedades que se vayan produciendo en esta tecnología.

Estamos convencidos de que la Inteligencia Artificial va a generar unas enormes oportunidades para los profesionales y las empresas que sepan utilizarlas correctamente, del calibre de las que hace décadas generaron la informática e Internet. En una época de constante cambio y enorme incertidumbre, nos acaban de regalar una nueva herramienta con la que navegar el futuro, pero tenemos que aprender a extraer de ella todo su potencial.

Etiquetas: , , , ,