La ingeniería de prompts es una técnica utilizada para
diseñar y optimizar las instrucciones proporcionadas a un modelo de
inteligencia artificial generativa. Su propósito principal es
mejorar la calidad y precisión de las respuestas generadas por el modelo
a través del ajuste adecuado de las entradas.
Por ejemplo, la diferencia entre un prompt general y otro más
específico puede influir significativamente en los resultados obtenidos.
Comparando dos instrucciones:
“Resume el texto.”
“Resume este artículo en tres puntos clave para un público
técnico.”
La segunda formulación proporciona un mayor grado de especificidad,
lo que puede mejorar la pertinencia de la respuesta generada.
Importancia
Los prompts desempeñan un papel fundamental en la interacción con
modelos de inteligencia artificial generativa debido a los siguientes
factores:
Impacto en la calidad de los resultados: La
precisión y utilidad de la respuesta dependen en gran medida de la
claridad y precisión del prompt utilizado.
Optimización del tiempo: Un diseño efectivo del
prompt reduce la necesidad de múltiples iteraciones, mejorando la
eficiencia en la obtención de resultados deseados.
Adaptabilidad y personalización: Los prompts
permiten adaptar la respuesta del modelo a distintos contextos y
necesidades específicas, asegurando una mayor flexibilidad en su
aplicación.
Elementos
claves en la construcción de un prompt
Contexto
El contexto es un elemento crucial para reducir la posibilidad de
respuestas incorrectas o fuera de tema. Para mejorar la precisión del
modelo, se recomienda:
Proporcionar información relevante y suficiente
para que el modelo comprenda el contexto de la solicitud.
Adjuntar enlaces, documentos o imágenes cuando sea
necesario.
Utilizar instrucciones claras y directas, evitando
formulaciones ambiguas o innecesarias.
Definición del rol
Es recomendable indicar al modelo el rol que debe asumir, como por
ejemplo:
Actúa como un profesor de educación primaria, secundaria o
universitaria.
Actúa como un experto en una disciplina específica
o como un principiante.
Actúa como un profesional de una determinada área
(científico, abogado, ingeniero, etc.).
Definición público objetivo
También es recomendable indicar al modelo el público objetivo al que
se dirige, como por ejemplo:
Escríbe para que lo entienda un estudiante de primaria,
secundaria o universitaria.
Escríbe para que lo entienda un profesional especializado o
una persona sin conocimientos previos en el tema.
Escríbe para que lo entienda un audiencia general o
técnica, según el propósito de la respuesta.
Acción solicitada
El prompt debe especificar con claridad la acción esperada del
modelo. Algunas de las acciones más comunes incluyen:
Clasificar o analizar: responder preguntas,
identificar patrones, categorizar.
Convertir información: traducir, transformar datos
en diferentes formatos.
Restricciones o
condiciones específicas
Para mejorar la precisión del modelo, se pueden incluir restricciones
o condiciones específicas, tales como:
Evitar ciertos términos o temas.
Especificar el idioma de la respuesta.
Indicar que el modelo responda con “No estoy seguro de la
respuesta” en caso de duda, en lugar de generar información
incorrecta.
Uso de ejemplos
Proporcionar ejemplos de la respuesta esperada puede mejorar
considerablemente la calidad de la salida del modelo. Esto
permite que la IA comprenda con mayor precisión el tipo de formato, tono
o nivel de detalle requerido.
Formato de salida
Es recomendable definir explícitamente el formato en el que se desea
recibir la respuesta. Algunas opciones incluyen:
Es recomendable establecer la extensión de la respuesta esperada,
especificando:
Número aproximado de caracteres, palabras, frases o
párrafos.
Si la respuesta debe ser concisa o detallada, según
las necesidades del usuario.
Técnicas avanzadas
Zero-shot Learning
Los modelos de inteligencia artificial han sido entrenados con
grandes volúmenes de datos y refuerzo humano, lo que les permite generar
respuestas de calidad aceptable sin necesidad de ejemplos previos. Este
enfoque se conoce como Zero-shot Learning y permite obtener
resultados sin proporcionar ejemplos explícitos.
Few-shot Learning
En situaciones donde se requiere una mayor precisión, es útil emplear
el enfoque Few-shot Learning, que consiste en añadir uno o
varios ejemplos de la respuesta deseada dentro del prompt. Esto
ayuda al modelo a comprender con mayor precisión la estructura y el tipo
de contenido esperado.
Cadena de
Pensamiento (Chain-of-Thought, CoT)
La técnica Chain-of-Thought (CoT) mejora el razonamiento del modelo
al indicarle al modelo que piense paso a paso el resultado
asegurandose de que es correcto. Este método es especialmente
útil en problemas matemáticos, lógicos y de toma de decisiones
complejas.
Cadena de Prompts
Otra técnica avanzada consiste en dividir una tarea compleja
en subtareas más pequeñas, permitiendo que el modelo las resuelva de
manera progresiva. Este enfoque, conocido como encadenamiento
de prompts, permite obtener resultados más estructurados y
comprensibles.
La Inteligencia Artificial Generativa comprende sistemas capaces de
producir contenidos originales como textos, imágenes, música,
vídeos y otros contenidos mediante el uso de modelos avanzados
de aprendizaje profundo que aprenden patrones y estructuras a partir de
conjuntos de datos existentes.
¿Qué
aplicaciones tiene?
La Inteligencia Artificial Generativa tiene diversas aplicaciones
prácticas en múltiples sectores, como por ejemplo:
Marketing, entretenimiento y periodismo: creación
automatizada de contenidos.
Arte y diseño: herramientas que facilitan la
creatividad artística.
Educación personalizada: generación automática de
contenidos educativos adaptados a necesidades específicas.
Desarrollo de software y automatización de
procesos: generación de código y scripts.
Contexto Histórico
Orígenes de la
Inteligencia Artificial
En las décadas de 1950 y 1960, hubo grandes expectativas
sobre el potencial de la Inteligencia Artificial. Destacan
algunos hitos importantes:
1950: Alan Turing introduce el Test de Turing.
1956: John McCarthy acuña el término “Inteligencia
Artificial”.
1964: Aparece ELIZA, el primer chatbot.
Invierno de la
Inteligencia Artificial
Durante las décadas de 1970 y 1980, la Inteligencia Artificial
experimentó un período conocido como “invierno de la Inteligencia
Artificial”, caracterizado por una disminución significativa en
la financiación y el interés público debido a expectativas no
cumplidas.
Resurgimiento de la
Inteligencia Artificial
La década de 1990 marca un resurgimiento de la Inteligencia
Artificial con avances en aprendizaje automático, y en
la década del 2000 avances en redes neuronales profundas y
algoritmos complejos. Entre los eventos más destacados
están:
1997: Deep Blue de IBM derrota al campeón mundial
de ajedrez Garry Kasparov.
2014: Introducción de las Redes Generativas
Antagónicas (GAN) por Ian Goodfellow.
2015: Aparición de modelos de difusión basados en
cadenas de Markov.
2017: Publicación del artículo “Attention Is All
You Need”, que introduce los transformadores.
La
revolución actual de la Inteligencia Artificial Generativa
Desde 2018 hasta el presente, se ha observado una expansión
exponencial de la Inteligencia Artificial Generativa:
2018: Lanzamiento del primer modelo GPT por
OpenAI.
2021: OpenAI presenta el modelo generativo de
imágenes DALL-E.
2023: OpenAI lanza ChatGPT, que populariza
ampliamente la tecnología.
2025: Aparición del modelo DeepSeek, un modelo de
pesos abiertos con costos significativamente menores en comparación con
modelos anteriores.
Modelos generativos
fundamentales
Redes Generativas
Antagónicas (GANs)
Introducidas por Ian Goodfellow en 2014, las GAN constan de
dos redes neuronales que compiten entre sí para mejorar la
calidad de las muestras generadas:
Generador: Crea muestras artificiales que se
asemejan a las muestras reales.
Discriminador: Evalúa y distingue muestras reales
de las generadas artificialmente.
Modelos de difusión
Introducidos en 2015, estos modelos se basan en las cadenas de Markov
y transforman datos estructurados en ruido y luego revierten el
proceso para generar contenido, tienen pues 2 fases:
Fase Forward (Difusión): Los datos originales se
corrompen añadiendo ruido gaussiano en múltiples pasos.
Fase Backward (Reversión): Se aprende a revertir el
proceso para generar contenidos originales a partir de datos con
ruido.
Transformadores
Introducidos en el artículo “Attention is All You Need” en 2017,
estos modelos se basan en mecanismos de atención para mejorar la
calidad en la generación y procesamiento de texto mediante:
Codificador: Captura y procesa la información de
entrada.
Decodificador: Genera el resultado final a partir
de las representaciones creadas por el codificador.
Conceptos clave
Tokens
Son las unidades básicas de procesamiento empleadas
por los modelos generativos, incluyendo palabras, subpalabras o
símbolos. Por ejemplo, “inteligencia” podría dividirse en varios tokens
según el modelo. La utilización de tokens impacta directamente en el
costo computacional y económico de las interacciones con los
modelos.
Son representaciones matemáticas que transforman datos
complejos en vectores que capturan similitudes y relaciones en
un espacio multidimensional. Son esenciales para reducir la complejidad
y permitir que los modelos procesen datos de forma eficiente. Se usan en
tareas como búsqueda semántica, sistemas de recomendación y
clasificación, representando información de manera compacta y útil.
Dos palabras con significados parecidos, tendrán dos embeddings que
se sitúen cerca dentro de su mismo espacio multidimensional. Además al
ser vectores, si sumamos cada uno de los embeddings de un texto
obtendremos otro embedding que nos dará, el significado global de dicho
texto, de tal forma que la representación en forma de embedding
de dos textos similares se situarán cerca dentro de su mismo espacio
multidimensional.
Contexto
Se refiere a la información proporcionada como
entrada que guía la generación de respuestas. El contexto
incluye el texto previo, las instrucciones específicas y datos
relevantes que ayudan al modelo a entender el propósito y mantener
coherencia.
Los modelos tienen un límite de tokens de contexto
que pueden procesar en una sola interacción, y es algo que hay que tener
en cuenta a la hora de interacturar con dichos modelos.
Tipologías de modelos
generativos
La Inteligencia Artificial Generativa emplea diversos tipos de
modelos, cada uno diseñado para manejar entradas y salidas específicas.
Las principales categorías incluyen:
Modelos texto a texto: generan contenido textual a
partir de instrucciones o contextos escritos.
Modelos texto a imagen e imagen a texto: generan
representaciones visuales a partir de descripciones textuales y
viceversa.
Modelos texto a audio y audio a texto: facilitan la
conversión de información escrita en formato auditivo, así como la
transcripción automática de audio.
Modelos texto a vídeo y vídeo a texto: generan
secuencias de vídeo a partir de instrucciones textuales o proporcionan
descripciones textuales basadas en contenidos audiovisuales.
Modelos multimodales: integran múltiples formatos
de entrada (texto, imagen, audio, vídeo) y generan resultados en
diversos formatos.
Capacidades
de los Grandes Modelos de Lenguaje (LLM)
Generación de lenguaje
La generación de lenguaje implica la creación autónoma de contenidos
textuales en respuesta a solicitudes específicas planteadas por los
usuarios. Por ejemplo, puede producir artículos completos sobre temas
particulares. No obstante, presenta la limitación conocida como
“alucinación”, que consiste en la generación de
información incorrecta o no fundamentada debido a la insuficiencia de
datos o contexto.
Manipulación de lenguaje
Esta capacidad permite a los modelos generativos
reestructurar textos, resumir textos extensos, cambiar el tono o
el público objetivo de un texto, o traducir un texto a otro idioma o a
un lenguaje de programación. La ventaja principal radica en la
reducción significativa de alucinaciones al basarse en información
previamente suministrada.
Razonamiento lógico básico
Los modelos generativos también pueden resolver problemas que
requieran razonamiento lógico sencillo. No obstante, esta capacidad
tiene limitaciones claras, especialmente frente a problemas complejos
que superan la capacidad inherente del modelo. A pesar de ello,
recientes avances tecnológicos han mejorado notablemente esta
competencia en modelos de última generación.
Limitaciones de
los Grandes Modelos de Lenguaje (LLM)
Inconsistencia en las
respuestas
Estos modelos pueden mostrar falta de consistencia, produciendo
diferentes resultados ante la misma instrucción o
solicitud. Por ejemplo, ante una misma pregunta sencilla pueden
ofrecer diversas interpretaciones o respuestas divergentes.
Alucinaciones
Estos modelos pueden producir respuestas erróneas o
inventadas cuando carecen de información suficiente. Un caso
típico es la creación ficticia de nombres o datos que no tienen base
real, como inventar personajes o eventos inexistentes.
Capacidad limitada de
memoria
La memoria en los modelos de lenguaje es limitada en términos de
contexto y longitud de interacción. Esto significa que no
retienen toda la información de una conversación, sólo una
parte delimitada por el contexto permitido, y tienen
restricciones en la longitud de las respuestas que pueden
proporcionar.
Sensibilidad a las
instrucciones
Pequeñas modificaciones en las instrucciones dadas al modelo
pueden alterar significativamente el resultado obtenido,
incluso generando la pérdida de detalles importantes cuando las
indicaciones iniciales se vuelven demasiado complejas o confusas.
Dependencia de los
datos de entrenamiento
Las respuestas generadas por los modelos están restringidas
por el conocimiento disponible en sus conjuntos de datos
iniciales. Para temas recientes o específicos, necesitan
recurrir constantemente a fuentes externas en Internet o actualizadas de
información.
Principales
aplicaciones de los Grandes Modelos de Lenguaje (LLM)
Tareas ideales
Las tareas ideales para usar estos modelos son las:
Tareas recurrentes: actividades repetitivas donde
la automatización mediante modelos de lenguaje tiene un beneficio
claro.
Tareas sencillas: actividades que no requieran
interacciones complejas, beneficiándose de instrucciones claras y
precisas.
Tareas verificables: actividades cuyo resultado
puede ser evaluado fácilmente para asegurar precisión y reducir
esfuerzos adicionales de corrección.
Recuperación de información
Los modelos son altamente eficaces para recuperar información
siempre que el contenido sea abundante, coherente y
consolidado, especialmente en contextos académicos con amplia
literatura. No obstante, la presencia de información contradictoria o
insuficiente puede conducir a errores o “alucinaciones”.
Procesamiento de textos
Estos modelos son especialmente efectivos en:
Resumir o expandir textos existentes.
Modificar el tono, el interlocutor o adaptar el
texto a diferentes audiencias.
Realizar traducciones, incluso hacia lenguajes
técnicos o informáticos.
Convertir información textual a diversos formatos
como tablas, listas o Markdown.
Beneficios
y desafíos
Beneficios
La Inteligencia Artificial Generativa ofrece múltiples beneficios,
entre los cuales destacan:
Optimización de procesos creativos y productivos:
Permite una significativa aceleración en la generación de ideas y
producción de contenidos.
Reducción de costos y tiempos operativos: Facilita
la disminución sustancial en los recursos necesarios para producir
resultados eficientemente.
Personalización avanzada de contenidos y productos:
Capacidad de adaptar resultados específicamente a las necesidades
individuales de usuarios o clientes.
Mejora en la experiencia del usuario: Proporciona
interacciones más naturales y enriquecedoras con sistemas automatizados
y asistentes virtuales.
Expansión del potencial creativo: Abre nuevas
posibilidades en la exploración y generación de ideas originales.
Facilitación del descubrimiento y la innovación:
Promueve enfoques novedosos y soluciones antes inexploradas.
Accesibilidad mejorada: Genera recursos adaptados
para personas con discapacidades, favoreciendo la inclusión y
accesibilidad.
Desarrollo avanzado de asistentes virtuales: Estos
pueden interactuar de forma más natural, humana y efectiva con los
usuarios.
Desafíos
Sin embargo, también enfrenta múltiples desafíos y riesgos que deben
considerarse cuidadosamente:
Garantía de precisión y veracidad: La dificultad
para asegurar que el contenido generado sea correcto y fiable.
Impacto sobre habilidades creativas humanas: Riesgo
potencial de que la dependencia excesiva en la Inteligencia Artificial
Generativa reduzca ciertas habilidades creativas humanas.
Riesgo de uso indebido de datos generados: Posible
generación y propagación de información falsa o maliciosa (fake
news).
Protección de datos personales: Preocupaciones
crecientes relacionadas con la privacidad y el uso ético de datos
personales.
Derechos de autor y propiedad intelectual: Debate
abierto sobre quién posee los derechos de los contenidos generados por
Inteligencia Artificial Generativa.
Impacto económico y laboral: Potencial afectación
al empleo y cambios significativos en las industrias creativas y
laborales.
Amplificación de sesgos existentes: Riesgo de que
los modelos generativos reproduzcan y amplifiquen prejuicios y sesgos
presentes en los datos usados durante su entrenamiento.
Justicia algorítmica y discriminación: Necesidad
crítica de asegurar que los algoritmos operen de forma equitativa y no
discriminatoria.
Perspectivas
futuras
Retos Éticos
La evolución de la Inteligencia Artificial Generativa presenta
importantes consideraciones éticas, tales como:
Sesgos de datos: Posibilidad de perpetuar
prejuicios implícitos existentes en los datos de entrenamiento.
Desinformación: Capacidad potencial para generar
contenidos falsos extremadamente convincentes, como los llamados
deepfakes.
Conflictos sobre propiedad intelectual: Debate
continuo sobre la autoría y derechos legales relacionados con contenidos
creados por Inteligencia Artificial Generativa.
Impacto ambiental: Alto consumo energético
requerido tanto para el entrenamiento como para la operación constante
de estos modelos.
Tendencias Tecnológicas
Además, en la evolución de la Inteligencia Artificial Generativa se
anticipan diversas tendencias en el desarrollo tecnológico futuro:
Multimodalidad: Desarrollo de modelos que integran
múltiples tipos de datos (texto, imagen, audio, vídeo) en sus
procesos.
Autoaprendizaje continuo: Capacidad de los modelos
para adaptarse y actualizarse continuamente con nuevos datos sin
requerir reentrenamiento extenso.
Mayor eficiencia en modelos: Avances que permiten
reducir el costo computacional de manera significativa mediante técnicas
de optimización.
Hardware especializado: Innovación en la creación
de chips dedicados específicamente al procesamiento eficiente de modelos
de Inteligencia Artificial Generativa, buscando maximizar rendimiento y
reducir el consumo energético.
La inteligencia artificial generativa ha revolucionado profundamente
el panorama tecnológico, científico y creativo en los últimos años. Esta
evolución tecnológica se manifiesta en un creciente número de
aplicaciones y herramientas capaces de transformar industrias enteras,
desde el desarrollo de software hasta la creación de contenido
multimedia y el análisis de grandes volúmenes de información. Estas
plataformas no solo destacan por sus impresionantes capacidades
individuales, sino también por abrir nuevas oportunidades en la manera
en que interactuamos con la tecnología y con el mundo a nuestro
alrededor.
A continuación vamos a comparar los modelos LLM de IA
generativa más importantes hoy en día.
ChatGPT
Desarrollado por OpenAI, es reconocido por su flexibilidad y
capacidad multimodal, permitiendo generar texto, imágenes y audio. Es
ampliamente utilizado gracias a su interfaz intuitiva y capacidad de
personalización mediante instrucciones específicas del usuario.
Creado por Google, sobresale por su integración profunda con
servicios de Google. Su ventana de contexto amplia y sus capacidades
multimodales que incluyen texto, imágenes, audio y video, lo hacen ideal
para aplicaciones complejas y cotidianas.
Diseñadeo por Microsoft, está pensado para mejorar la productividad,
integrándose eficazmente con Office 365 y Windows 11. Facilita la
automatización y optimización de tareas comunes en aplicaciones como
Word, Excel y Outlook.
Desarrollado por xAI bajo la dirección de Elon Musk, destaca por su
estilo conversacional único, combinando información actualizada y humor.
Su integración directa con la plataforma X (twitter) le permite acceder
en tiempo real a información relevante y actualizada.
Redefine el motor de búsqueda tradicional al ofrecer resultados
precisos y actualizados, complementados con referencias verificadas. Su
capacidad para integrar múltiples fuentes lo convierte en una
herramienta esencial para usuarios que buscan información confiable.
De Anthropic, pone especial énfasis en la seguridad, ética y
reducción de sesgos en las interacciones de inteligencia artificial. Su
diseño está orientado a proporcionar respuestas seguras, fundamentadas y
altamente contextuales, destacándose en conversaciones complejas y
tareas detalladas.
Modelo de pesos abiertos de Meta, presenta diversas opciones en
términos de tamaño y capacidades multimodales. Su versatilidad y
accesibilidad permiten a desarrolladores adaptar estos modelos para
múltiples aplicaciones, desde dispositivos móviles hasta sistemas
altamente especializados.
Modelo de pesos abiertos especializado en razonamiento y soluciones
técnicas para programación y matemáticas. Con una fuerte capacidad para
la generación y depuración de código, es particularmente efectivo en
entornos científicos y académicos donde la precisión técnica es
crítica.
Modelo de pesos abiertos impulsado por Alibaba Cloud, destaca por su
arquitectura robusta y capacidades multimodales avanzadas. Su desempeño
sobresaliente en diversos benchmarks técnicos lo posiciona como uno de
los líderes en soluciones de inteligencia artificial, especialmente en
generación de código y análisis de datos.
Modelo de pesos abiertos francés que destaca por su enfoque en la
eficiencia y escalabilidad mediante modelos abiertos. Ofrece un
excelente equilibrio entre rendimiento y consumo de recursos,
facilitando su adopción en proyectos con restricciones técnicas.
En conclusión, la inteligencia artificial generativa continúa
desarrollándose a un ritmo acelerado, impulsando la innovación y
transformando cómo abordamos problemas complejos en diversas
disciplinas. Sin embargo, junto con estas oportunidades aparecen
desafíos éticos, regulatorios y sociales significativos que deben ser
abordados de manera responsable. La evolución de estas tecnologías nos
coloca frente a un futuro donde la colaboración entre humanos y máquinas
puede redefinir radicalmente las fronteras del conocimiento y la
creatividad.
Como estos últimos años, voy a intentar que los propósitos sean desafiantes y motivadores, pero sobre todo realizables. De nada vale ponerse unos bonitos propósitos si sabes de ante mano que no vas a poder realizarlos.
También quiero que, en la medida de lo posible, sean medibles para poder evaluar su consecución. De esta forma podré comprobar de forma fehaciente su ejecución.
De hecho, como el año pasado, me he creado un formulario para medir la consecución de mis propósitos diariamente y luego poder sacar gráficas y conclusiones.
Así mismo voy a intentar que dependan fundamentalmente de mi. Creo que tus propósitos no pueden depender de terceras personas.
Y para terminar quiero cubrir todas las áreas importantes de mi vida: la salud, el dinero y el amor.
General:
Rellenar diariamente mi formulario con el seguimiento de estos propósitos.
Escribir un post trimestral con el seguimiento de estos propósitos.
Salud:
Dormir de media al menos 7,5 horas al día.
Andar de media al menos 7.500 pasos al día.
Hacer deporte de media al menos 25 minutos al día.
Perder grasa corporal con una media diaria de menos de 22 %.
Ganar masa muscular con una media diaria de al menos 59 Kg.
Reducir la ingesta de alcohol a como mucho una media de 0,5 cervezas al día.
Mantener mi ingesta de calorías de media en menos de 2.100 calorías al día.
Dinero:
Cumplir mi horario de trabajo y no trabajar más de 1.700 horas este año.
Ayudar a mi gran amigo Fernando Redondo al menos 180 horas este año.
Colaborar con Hackathon Lovers al menos 90 horas este año.
Impartir como profesor al menos 60 horas de cursos este año.
Escribir en mi blog o en mi futura obra de ciencia ficción al menos 60 horas este año.
Dedicar a aprender al menos 60 horas este año (DevSecOps, Ciberseguridad, Blockchain, IA, Data Science).
Leer libros al menos 60 horas este año.
Amor:
Realizar algo en familia semanalmente.
Dedicar a tareas de la casa y/o familiares al menos 10 horas a la semana.
Viajar con mi familia al menos 2 veces al año.
Llamar a algún familiar y/o amigo al menos 1 vez a la semana.
Controlar el uso de los móviles de mis hijas al menos 1 vez al mes.
Quedar con algún familiar y/o amigo al menos 1 vez a la semana.
Asistir a al menos 9 eventos, ya sea como ponente o como participante y hacer networking.
Pelamos 8 ajos y los machacamos junto con bastante perejil y una pizca de sal.
En la bandeja del horno ponemos una capa fina de aceite de oliva.
Untamos los trozos de pollo (800 gramos, normalmente contramuslos) con el ajo, el perejil y la sal y vamos poniendo los trozos encima de la bandeja del horno.
Añadimos el zumo de un limón por encima y una poquita de pimienta.
En un vaso añadimos vino blanco dulce o semidulce hasta la mitad, la otra mitad la rellenamos de agua, espolvoreamos colorante y vertemos la mezcla por encima del pollo.
Pelamos y picamos una cebolla grande en trocitos y la esparcimos por encima del pollo.
Pelamos unos 600 gramos de patatas, las cortamos en cuadrados y las esparcimos por encima del pollo y de la cebolla.
Añadimos un poco más de agua y de sal y metemos al horno a 180ºC más o menos unos 30 minutos.
La verdad es que la IA generativa consiguió que fuese bastante más productivo, pues no soló tardé bastante menos en crear las presentaciones, si no que me ayudó también a crear preguntas en formato GIFT para Moodle.
MarkdownSlides es un generador de presentaciones Reveal.js y PDF a partir de ficheros MARKDOWN, que también genera documentos HTML, EPUB y DOCX.
La idea es que a partir de un mismo fichero MARKDOWN podamos obtener presentaciones y apuntes, con versiones para profesor y alumno, todo de un mismo fichero, sin preocuparnos por el estilo, solo por el contenido.