2 de marzo de 2025

Introducción a la Ingeniería de Prompts

 

Ingeniería de prompts

Definición

La ingeniería de prompts es una técnica utilizada para diseñar y optimizar las instrucciones proporcionadas a un modelo de inteligencia artificial generativa. Su propósito principal es mejorar la calidad y precisión de las respuestas generadas por el modelo a través del ajuste adecuado de las entradas.

Por ejemplo, la diferencia entre un prompt general y otro más específico puede influir significativamente en los resultados obtenidos. Comparando dos instrucciones:

  • “Resume el texto.”
  • “Resume este artículo en tres puntos clave para un público técnico.”

La segunda formulación proporciona un mayor grado de especificidad, lo que puede mejorar la pertinencia de la respuesta generada.

Importancia

Los prompts desempeñan un papel fundamental en la interacción con modelos de inteligencia artificial generativa debido a los siguientes factores:

  • Impacto en la calidad de los resultados: La precisión y utilidad de la respuesta dependen en gran medida de la claridad y precisión del prompt utilizado.
  • Optimización del tiempo: Un diseño efectivo del prompt reduce la necesidad de múltiples iteraciones, mejorando la eficiencia en la obtención de resultados deseados.
  • Adaptabilidad y personalización: Los prompts permiten adaptar la respuesta del modelo a distintos contextos y necesidades específicas, asegurando una mayor flexibilidad en su aplicación.

Elementos claves en la construcción de un prompt

Contexto

El contexto es un elemento crucial para reducir la posibilidad de respuestas incorrectas o fuera de tema. Para mejorar la precisión del modelo, se recomienda:

  • Proporcionar información relevante y suficiente para que el modelo comprenda el contexto de la solicitud.
  • Adjuntar enlaces, documentos o imágenes cuando sea necesario.
  • Utilizar instrucciones claras y directas, evitando formulaciones ambiguas o innecesarias.

Definición del rol

Es recomendable indicar al modelo el rol que debe asumir, como por ejemplo:

  • Actúa como un profesor de educación primaria, secundaria o universitaria.
  • Actúa como un experto en una disciplina específica o como un principiante.
  • Actúa como un profesional de una determinada área (científico, abogado, ingeniero, etc.).

Definición público objetivo

También es recomendable indicar al modelo el público objetivo al que se dirige, como por ejemplo:

  • Escríbe para que lo entienda un estudiante de primaria, secundaria o universitaria.
  • Escríbe para que lo entienda un profesional especializado o una persona sin conocimientos previos en el tema.
  • Escríbe para que lo entienda un audiencia general o técnica, según el propósito de la respuesta.

Acción solicitada

El prompt debe especificar con claridad la acción esperada del modelo. Algunas de las acciones más comunes incluyen:

  • Generar contenido: escribir, crear, producir.
  • Procesar información: resumir, expandir, corregir.
  • Clasificar o analizar: responder preguntas, identificar patrones, categorizar.
  • Convertir información: traducir, transformar datos en diferentes formatos.

Restricciones o condiciones específicas

Para mejorar la precisión del modelo, se pueden incluir restricciones o condiciones específicas, tales como:

  • Evitar ciertos términos o temas.
  • Especificar el idioma de la respuesta.
  • Indicar que el modelo responda con “No estoy seguro de la respuesta” en caso de duda, en lugar de generar información incorrecta.

Uso de ejemplos

Proporcionar ejemplos de la respuesta esperada puede mejorar considerablemente la calidad de la salida del modelo. Esto permite que la IA comprenda con mayor precisión el tipo de formato, tono o nivel de detalle requerido.

Formato de salida

Es recomendable definir explícitamente el formato en el que se desea recibir la respuesta. Algunas opciones incluyen:

  • Texto estructurado: lista, tabla, esquema conceptual.
  • Formatos específicos: Markdown, LaTeX, DOCX.
  • Datos estructurados: JSON, CSV, HTML.
  • Código de programación: CSS, JavaScript, Python.

Tono y estilo

Dependiendo del propósito de la respuesta, se puede especificar el tono y el estilo deseados:

  • Tono: formal, informal, expositivo, persuasivo, crítico, motivacional, humorístico.
  • Estilo: científico, técnico, argumentativo, literario, periodístico, publicitario.

Longitud de la respuesta

Es recomendable establecer la extensión de la respuesta esperada, especificando:

  • Número aproximado de caracteres, palabras, frases o párrafos.
  • Si la respuesta debe ser concisa o detallada, según las necesidades del usuario.

Técnicas avanzadas

Zero-shot Learning

Los modelos de inteligencia artificial han sido entrenados con grandes volúmenes de datos y refuerzo humano, lo que les permite generar respuestas de calidad aceptable sin necesidad de ejemplos previos. Este enfoque se conoce como Zero-shot Learning y permite obtener resultados sin proporcionar ejemplos explícitos.

Few-shot Learning

En situaciones donde se requiere una mayor precisión, es útil emplear el enfoque Few-shot Learning, que consiste en añadir uno o varios ejemplos de la respuesta deseada dentro del prompt. Esto ayuda al modelo a comprender con mayor precisión la estructura y el tipo de contenido esperado.

Cadena de Pensamiento (Chain-of-Thought, CoT)

La técnica Chain-of-Thought (CoT) mejora el razonamiento del modelo al indicarle al modelo que piense paso a paso el resultado asegurandose de que es correcto. Este método es especialmente útil en problemas matemáticos, lógicos y de toma de decisiones complejas.

Cadena de Prompts

Otra técnica avanzada consiste en dividir una tarea compleja en subtareas más pequeñas, permitiendo que el modelo las resuelva de manera progresiva. Este enfoque, conocido como encadenamiento de prompts, permite obtener resultados más estructurados y comprensibles.

Ver también

Comparte:    Facebook Twitter
Leer más

25 de febrero de 2025

Introducción a la Inteligencia Artificial Generativa y a los Grandes Modelos de Lenguaje (LLM)

La Inteligencia Artificial Generativa

¿Qué es?

La Inteligencia Artificial Generativa comprende sistemas capaces de producir contenidos originales como textos, imágenes, música, vídeos y otros contenidos mediante el uso de modelos avanzados de aprendizaje profundo que aprenden patrones y estructuras a partir de conjuntos de datos existentes.

¿Qué aplicaciones tiene?

La Inteligencia Artificial Generativa tiene diversas aplicaciones prácticas en múltiples sectores, como por ejemplo:

  • Marketing, entretenimiento y periodismo: creación automatizada de contenidos.
  • Arte y diseño: herramientas que facilitan la creatividad artística.
  • Educación personalizada: generación automática de contenidos educativos adaptados a necesidades específicas.
  • Desarrollo de software y automatización de procesos: generación de código y scripts.

Contexto Histórico

Orígenes de la Inteligencia Artificial

En las décadas de 1950 y 1960, hubo grandes expectativas sobre el potencial de la Inteligencia Artificial. Destacan algunos hitos importantes:

  • 1950: Alan Turing introduce el Test de Turing.
  • 1956: John McCarthy acuña el término “Inteligencia Artificial”.
  • 1964: Aparece ELIZA, el primer chatbot.

Invierno de la Inteligencia Artificial

Durante las décadas de 1970 y 1980, la Inteligencia Artificial experimentó un período conocido como “invierno de la Inteligencia Artificial”, caracterizado por una disminución significativa en la financiación y el interés público debido a expectativas no cumplidas.

Resurgimiento de la Inteligencia Artificial

La década de 1990 marca un resurgimiento de la Inteligencia Artificial con avances en aprendizaje automático, y en la década del 2000 avances en redes neuronales profundas y algoritmos complejos. Entre los eventos más destacados están:

  • 1997: Deep Blue de IBM derrota al campeón mundial de ajedrez Garry Kasparov.
  • 2014: Introducción de las Redes Generativas Antagónicas (GAN) por Ian Goodfellow.
  • 2015: Aparición de modelos de difusión basados en cadenas de Markov.
  • 2017: Publicación del artículo “Attention Is All You Need”, que introduce los transformadores.

La revolución actual de la Inteligencia Artificial Generativa

Desde 2018 hasta el presente, se ha observado una expansión exponencial de la Inteligencia Artificial Generativa:

  • 2018: Lanzamiento del primer modelo GPT por OpenAI.
  • 2021: OpenAI presenta el modelo generativo de imágenes DALL-E.
  • 2023: OpenAI lanza ChatGPT, que populariza ampliamente la tecnología.
  • 2025: Aparición del modelo DeepSeek, un modelo de pesos abiertos con costos significativamente menores en comparación con modelos anteriores.

Modelos generativos fundamentales

Redes Generativas Antagónicas (GANs)

Introducidas por Ian Goodfellow en 2014, las GAN constan de dos redes neuronales que compiten entre sí para mejorar la calidad de las muestras generadas:

  • Generador: Crea muestras artificiales que se asemejan a las muestras reales.
  • Discriminador: Evalúa y distingue muestras reales de las generadas artificialmente.

Modelos de difusión

Introducidos en 2015, estos modelos se basan en las cadenas de Markov y transforman datos estructurados en ruido y luego revierten el proceso para generar contenido, tienen pues 2 fases:

  • Fase Forward (Difusión): Los datos originales se corrompen añadiendo ruido gaussiano en múltiples pasos.
  • Fase Backward (Reversión): Se aprende a revertir el proceso para generar contenidos originales a partir de datos con ruido.

Transformadores

Introducidos en el artículo “Attention is All You Need” en 2017, estos modelos se basan en mecanismos de atención para mejorar la calidad en la generación y procesamiento de texto mediante:

  • Codificador: Captura y procesa la información de entrada.
  • Decodificador: Genera el resultado final a partir de las representaciones creadas por el codificador.

Conceptos clave

Tokens

Son las unidades básicas de procesamiento empleadas por los modelos generativos, incluyendo palabras, subpalabras o símbolos. Por ejemplo, “inteligencia” podría dividirse en varios tokens según el modelo. La utilización de tokens impacta directamente en el costo computacional y económico de las interacciones con los modelos.

https://platform.openai.com/tokenizer

Embeddings

Son representaciones matemáticas que transforman datos complejos en vectores que capturan similitudes y relaciones en un espacio multidimensional. Son esenciales para reducir la complejidad y permitir que los modelos procesen datos de forma eficiente. Se usan en tareas como búsqueda semántica, sistemas de recomendación y clasificación, representando información de manera compacta y útil.

Dos palabras con significados parecidos, tendrán dos embeddings que se sitúen cerca dentro de su mismo espacio multidimensional. Además al ser vectores, si sumamos cada uno de los embeddings de un texto obtendremos otro embedding que nos dará, el significado global de dicho texto, de tal forma que la representación en forma de embedding de dos textos similares se situarán cerca dentro de su mismo espacio multidimensional.

Contexto

Se refiere a la información proporcionada como entrada que guía la generación de respuestas. El contexto incluye el texto previo, las instrucciones específicas y datos relevantes que ayudan al modelo a entender el propósito y mantener coherencia.

Los modelos tienen un límite de tokens de contexto que pueden procesar en una sola interacción, y es algo que hay que tener en cuenta a la hora de interacturar con dichos modelos.

Tipologías de modelos generativos

La Inteligencia Artificial Generativa emplea diversos tipos de modelos, cada uno diseñado para manejar entradas y salidas específicas. Las principales categorías incluyen:

  • Modelos texto a texto: generan contenido textual a partir de instrucciones o contextos escritos.
  • Modelos texto a imagen e imagen a texto: generan representaciones visuales a partir de descripciones textuales y viceversa.
  • Modelos texto a audio y audio a texto: facilitan la conversión de información escrita en formato auditivo, así como la transcripción automática de audio.
  • Modelos texto a vídeo y vídeo a texto: generan secuencias de vídeo a partir de instrucciones textuales o proporcionan descripciones textuales basadas en contenidos audiovisuales.
  • Modelos multimodales: integran múltiples formatos de entrada (texto, imagen, audio, vídeo) y generan resultados en diversos formatos.

Capacidades de los Grandes Modelos de Lenguaje (LLM)

Generación de lenguaje

La generación de lenguaje implica la creación autónoma de contenidos textuales en respuesta a solicitudes específicas planteadas por los usuarios. Por ejemplo, puede producir artículos completos sobre temas particulares. No obstante, presenta la limitación conocida como “alucinación”, que consiste en la generación de información incorrecta o no fundamentada debido a la insuficiencia de datos o contexto.

Manipulación de lenguaje

Esta capacidad permite a los modelos generativos reestructurar textos, resumir textos extensos, cambiar el tono o el público objetivo de un texto, o traducir un texto a otro idioma o a un lenguaje de programación. La ventaja principal radica en la reducción significativa de alucinaciones al basarse en información previamente suministrada.

Razonamiento lógico básico

Los modelos generativos también pueden resolver problemas que requieran razonamiento lógico sencillo. No obstante, esta capacidad tiene limitaciones claras, especialmente frente a problemas complejos que superan la capacidad inherente del modelo. A pesar de ello, recientes avances tecnológicos han mejorado notablemente esta competencia en modelos de última generación.

Limitaciones de los Grandes Modelos de Lenguaje (LLM)

Inconsistencia en las respuestas

Estos modelos pueden mostrar falta de consistencia, produciendo diferentes resultados ante la misma instrucción o solicitud. Por ejemplo, ante una misma pregunta sencilla pueden ofrecer diversas interpretaciones o respuestas divergentes.

Alucinaciones

Estos modelos pueden producir respuestas erróneas o inventadas cuando carecen de información suficiente. Un caso típico es la creación ficticia de nombres o datos que no tienen base real, como inventar personajes o eventos inexistentes.

Capacidad limitada de memoria

La memoria en los modelos de lenguaje es limitada en términos de contexto y longitud de interacción. Esto significa que no retienen toda la información de una conversación, sólo una parte delimitada por el contexto permitido, y tienen restricciones en la longitud de las respuestas que pueden proporcionar.

Sensibilidad a las instrucciones

Pequeñas modificaciones en las instrucciones dadas al modelo pueden alterar significativamente el resultado obtenido, incluso generando la pérdida de detalles importantes cuando las indicaciones iniciales se vuelven demasiado complejas o confusas.

Dependencia de los datos de entrenamiento

Las respuestas generadas por los modelos están restringidas por el conocimiento disponible en sus conjuntos de datos iniciales. Para temas recientes o específicos, necesitan recurrir constantemente a fuentes externas en Internet o actualizadas de información.

Principales aplicaciones de los Grandes Modelos de Lenguaje (LLM)

Tareas ideales

Las tareas ideales para usar estos modelos son las:

  • Tareas recurrentes: actividades repetitivas donde la automatización mediante modelos de lenguaje tiene un beneficio claro.
  • Tareas sencillas: actividades que no requieran interacciones complejas, beneficiándose de instrucciones claras y precisas.
  • Tareas verificables: actividades cuyo resultado puede ser evaluado fácilmente para asegurar precisión y reducir esfuerzos adicionales de corrección.

Recuperación de información

Los modelos son altamente eficaces para recuperar información siempre que el contenido sea abundante, coherente y consolidado, especialmente en contextos académicos con amplia literatura. No obstante, la presencia de información contradictoria o insuficiente puede conducir a errores o “alucinaciones”.

Procesamiento de textos

Estos modelos son especialmente efectivos en:

  • Resumir o expandir textos existentes.
  • Modificar el tono, el interlocutor o adaptar el texto a diferentes audiencias.
  • Realizar traducciones, incluso hacia lenguajes técnicos o informáticos.
  • Convertir información textual a diversos formatos como tablas, listas o Markdown.

Beneficios y desafíos

Beneficios

La Inteligencia Artificial Generativa ofrece múltiples beneficios, entre los cuales destacan:

  • Optimización de procesos creativos y productivos: Permite una significativa aceleración en la generación de ideas y producción de contenidos.
  • Reducción de costos y tiempos operativos: Facilita la disminución sustancial en los recursos necesarios para producir resultados eficientemente.
  • Personalización avanzada de contenidos y productos: Capacidad de adaptar resultados específicamente a las necesidades individuales de usuarios o clientes.
  • Mejora en la experiencia del usuario: Proporciona interacciones más naturales y enriquecedoras con sistemas automatizados y asistentes virtuales.
  • Expansión del potencial creativo: Abre nuevas posibilidades en la exploración y generación de ideas originales.
  • Facilitación del descubrimiento y la innovación: Promueve enfoques novedosos y soluciones antes inexploradas.
  • Accesibilidad mejorada: Genera recursos adaptados para personas con discapacidades, favoreciendo la inclusión y accesibilidad.
  • Desarrollo avanzado de asistentes virtuales: Estos pueden interactuar de forma más natural, humana y efectiva con los usuarios.

Desafíos

Sin embargo, también enfrenta múltiples desafíos y riesgos que deben considerarse cuidadosamente:

  • Garantía de precisión y veracidad: La dificultad para asegurar que el contenido generado sea correcto y fiable.
  • Impacto sobre habilidades creativas humanas: Riesgo potencial de que la dependencia excesiva en la Inteligencia Artificial Generativa reduzca ciertas habilidades creativas humanas.
  • Riesgo de uso indebido de datos generados: Posible generación y propagación de información falsa o maliciosa (fake news).
  • Protección de datos personales: Preocupaciones crecientes relacionadas con la privacidad y el uso ético de datos personales.
  • Derechos de autor y propiedad intelectual: Debate abierto sobre quién posee los derechos de los contenidos generados por Inteligencia Artificial Generativa.
  • Impacto económico y laboral: Potencial afectación al empleo y cambios significativos en las industrias creativas y laborales.
  • Amplificación de sesgos existentes: Riesgo de que los modelos generativos reproduzcan y amplifiquen prejuicios y sesgos presentes en los datos usados durante su entrenamiento.
  • Justicia algorítmica y discriminación: Necesidad crítica de asegurar que los algoritmos operen de forma equitativa y no discriminatoria.

Perspectivas futuras 

Retos Éticos

La evolución de la Inteligencia Artificial Generativa presenta importantes consideraciones éticas, tales como:

  • Sesgos de datos: Posibilidad de perpetuar prejuicios implícitos existentes en los datos de entrenamiento.
  • Desinformación: Capacidad potencial para generar contenidos falsos extremadamente convincentes, como los llamados deepfakes.
  • Conflictos sobre propiedad intelectual: Debate continuo sobre la autoría y derechos legales relacionados con contenidos creados por Inteligencia Artificial Generativa.
  • Impacto ambiental: Alto consumo energético requerido tanto para el entrenamiento como para la operación constante de estos modelos.

Tendencias Tecnológicas

Además, en la evolución de la Inteligencia Artificial Generativa se anticipan diversas tendencias en el desarrollo tecnológico futuro:

  • Multimodalidad: Desarrollo de modelos que integran múltiples tipos de datos (texto, imagen, audio, vídeo) en sus procesos.
  • Autoaprendizaje continuo: Capacidad de los modelos para adaptarse y actualizarse continuamente con nuevos datos sin requerir reentrenamiento extenso.
  • Mayor eficiencia en modelos: Avances que permiten reducir el costo computacional de manera significativa mediante técnicas de optimización.
  • Hardware especializado: Innovación en la creación de chips dedicados específicamente al procesamiento eficiente de modelos de Inteligencia Artificial Generativa, buscando maximizar rendimiento y reducir el consumo energético.

Ver también

Comparte:    Facebook Twitter
Leer más

23 de febrero de 2025

Comparativa de modelos LLM de IA Generativa

 

La inteligencia artificial generativa ha revolucionado profundamente el panorama tecnológico, científico y creativo en los últimos años. Esta evolución tecnológica se manifiesta en un creciente número de aplicaciones y herramientas capaces de transformar industrias enteras, desde el desarrollo de software hasta la creación de contenido multimedia y el análisis de grandes volúmenes de información. Estas plataformas no solo destacan por sus impresionantes capacidades individuales, sino también por abrir nuevas oportunidades en la manera en que interactuamos con la tecnología y con el mundo a nuestro alrededor.

A continuación vamos a comparar los modelos LLM de IA generativa más importantes hoy en día.

ChatGPT

Desarrollado por OpenAI, es reconocido por su flexibilidad y capacidad multimodal, permitiendo generar texto, imágenes y audio. Es ampliamente utilizado gracias a su interfaz intuitiva y capacidad de personalización mediante instrucciones específicas del usuario.

https://chatgpt.com

Gemini

Creado por Google, sobresale por su integración profunda con servicios de Google. Su ventana de contexto amplia y sus capacidades multimodales que incluyen texto, imágenes, audio y video, lo hacen ideal para aplicaciones complejas y cotidianas.

https://gemini.google.com

Copilot

Diseñadeo por Microsoft, está pensado para mejorar la productividad, integrándose eficazmente con Office 365 y Windows 11. Facilita la automatización y optimización de tareas comunes en aplicaciones como Word, Excel y Outlook.

https://copilot.microsoft.com

Grok

Desarrollado por xAI bajo la dirección de Elon Musk, destaca por su estilo conversacional único, combinando información actualizada y humor. Su integración directa con la plataforma X (twitter) le permite acceder en tiempo real a información relevante y actualizada.

https://grok.com

Perplexity AI

Redefine el motor de búsqueda tradicional al ofrecer resultados precisos y actualizados, complementados con referencias verificadas. Su capacidad para integrar múltiples fuentes lo convierte en una herramienta esencial para usuarios que buscan información confiable.

https://www.perplexity.ai/

Claude

De Anthropic, pone especial énfasis en la seguridad, ética y reducción de sesgos en las interacciones de inteligencia artificial. Su diseño está orientado a proporcionar respuestas seguras, fundamentadas y altamente contextuales, destacándose en conversaciones complejas y tareas detalladas.

https://claude.ai

Llama

Modelo de pesos abiertos de Meta, presenta diversas opciones en términos de tamaño y capacidades multimodales. Su versatilidad y accesibilidad permiten a desarrolladores adaptar estos modelos para múltiples aplicaciones, desde dispositivos móviles hasta sistemas altamente especializados.

https://ai.meta.com/llama/

DeepSeek

Modelo de pesos abiertos especializado en razonamiento y soluciones técnicas para programación y matemáticas. Con una fuerte capacidad para la generación y depuración de código, es particularmente efectivo en entornos científicos y académicos donde la precisión técnica es crítica.

https://www.deepseek.com/

Qwen

Modelo de pesos abiertos impulsado por Alibaba Cloud, destaca por su arquitectura robusta y capacidades multimodales avanzadas. Su desempeño sobresaliente en diversos benchmarks técnicos lo posiciona como uno de los líderes en soluciones de inteligencia artificial, especialmente en generación de código y análisis de datos.

https://chat.qwenlm.ai/

Mistral

Modelo de pesos abiertos francés que destaca por su enfoque en la eficiencia y escalabilidad mediante modelos abiertos. Ofrece un excelente equilibrio entre rendimiento y consumo de recursos, facilitando su adopción en proyectos con restricciones técnicas.

https://chat.mistral.ai/chat

Tabla comparativa

Plataforma Open Weights Empresa (País) Característica Principal
ChatGPT NO OpenAI (EE.UU.) El rey que todos imitan.
Gemini NO Google (EE.UU.) Amplio contexto e integración con Google.
Copilot NO Microsoft (EE.UU.) Integración con Office 365 y Windows.
Grok NO xAI (EE.UU.) Responde con ingenio y humor.
Perplexity NO Perplexity AI (EE.UU.) Referencias verificadas.
Claude NO Anthropic (EE.UU.) Manejo seguro del contexto.
Llama Meta (EE.UU.) Versátil, personalizable y accesible.
DeepSeek DeepSeek AI (China) Especializado en razonamiento.
Qwen Alibaba (China) Buen rendimjiento en tareas estándar.
Mistral Mistral AI (Francia) El modelo europeo enfocado en eficiencia.

En conclusión, la inteligencia artificial generativa continúa desarrollándose a un ritmo acelerado, impulsando la innovación y transformando cómo abordamos problemas complejos en diversas disciplinas. Sin embargo, junto con estas oportunidades aparecen desafíos éticos, regulatorios y sociales significativos que deben ser abordados de manera responsable. La evolución de estas tecnologías nos coloca frente a un futuro donde la colaboración entre humanos y máquinas puede redefinir radicalmente las fronteras del conocimiento y la creatividad.

Ver también

Comparte:    Facebook Twitter
Leer más

2 de febrero de 2025

Recursos de un curso de introducción al Data Science con Python

 

A continuación os dejo un enlace con los recursos de un curso de introducción al Data Science con Python que he impartido hace poco. Basícamente son los cuadernos de Jupyter que he utilizado en el curso en donde puedes encontrar:

  • Cómo trabajar con APIs en Python.
  • Cómo hacer webscraping con Python.
  • Cómo crear gráficas con Python (Matplotlib, Seaborn y Plotly).
  • Cómo preprocesar datos con Python (Pandas).
  • Cómo realizar una clasificación binaria con Python (sklearn).
  • Cómo lidiar con series temporales en Python.
     
Comparte:    Facebook Twitter
Leer más

1 de enero de 2025

Mis propósitos para el 2025


Después de hacer mi retrospectiva del 2024, y como vengo haciendo desde el 2013, ahora toca plasmar mis propósitos para este 2025.

Como estos últimos años, voy a intentar que los propósitos sean desafiantes y motivadores, pero sobre todo realizables. De nada vale ponerse unos bonitos propósitos si sabes de ante mano que no vas a poder realizarlos.

También quiero que, en la medida de lo posible, sean medibles para poder evaluar su consecución. De esta forma podré comprobar de forma fehaciente su ejecución.

De hecho, como el año pasado, me he creado un formulario para medir la consecución de mis propósitos diariamente y luego poder sacar gráficas y conclusiones.

Así mismo voy a intentar que dependan fundamentalmente de mi. Creo que tus propósitos no pueden depender de terceras personas.

Y para terminar quiero cubrir todas las áreas importantes de mi vida: la salud, el dinero y el amor.

General:
  • Rellenar diariamente mi formulario con el seguimiento de estos propósitos.
  • Escribir un post trimestral con el seguimiento de estos propósitos.
Salud:
  • Dormir de media al menos 7,5 horas al día.
  • Andar de media al menos 7.500 pasos al día.
  • Hacer deporte de media al menos 25 minutos al día.
  • Perder grasa corporal con una media diaria de menos de 22 %.
  • Ganar masa muscular con una media diaria de al menos 59 Kg.
  • Reducir la ingesta de alcohol a como mucho una media de 0,5 cervezas al día.
  • Mantener mi ingesta de calorías de media en menos de 2.100 calorías al día.
Dinero:
  • Cumplir mi horario de trabajo y no trabajar más de 1.700 horas este año.
  • Ayudar a mi gran amigo Fernando Redondo al menos 180 horas este año.
  • Colaborar con Hackathon Lovers al menos 90 horas este año.
  • Impartir como profesor al menos 60 horas de cursos este año.
  • Escribir en mi blog o en mi futura obra de ciencia ficción al menos 60 horas este año.
  • Dedicar a aprender al menos 60 horas este año (DevSecOps, Ciberseguridad, Blockchain, IA, Data Science).
  • Leer libros al menos 60 horas este año.

Amor:
  • Realizar algo en familia semanalmente.
  • Dedicar a tareas de la casa y/o familiares al menos 10 horas a la semana.
  • Viajar con mi familia al menos 2 veces al año.
  • Llamar a algún familiar y/o amigo al menos 1 vez a la semana.
  • Controlar el uso de los móviles de mis hijas al menos 1 vez al mes.
  • Quedar con algún familiar y/o amigo al menos 1 vez a la semana.
  • Asistir a al menos 9 eventos, ya sea como ponente o como participante y hacer networking.

Iconos con licencia Creative Commons: general, salud, dinero y amor.

Comparte:    Facebook Twitter
Leer más

Retrospectiva del 2024


Como otros años, me gusta hacer una retrospectiva chequeando los propósitos que me marqué a principio de año y ver cuales de ellos he conseguido.

General:

Salud:

  • [Conseguido] Dormir de media al menos 7,5 horas al día.

    (Aunque en este cuarto trimestre he bajado a 7,3 horas de sueño al día de media, la media del año se ha mantenido en 7,6 horas de sueño al día).

  • [A medias] Andar de media al menos 7.500 pasos al día.

    (Aunque este cuarto trimestre he subido de los 7.500 pasos al día de media, la media del año se ha quedado en 7.000 pasos al día).

  • [Conseguido] Hacer deporte de media al menos 20 minutos al día.

    (Este cuarto trimestre he subido hasta los 24 minutos de deporte al día de media, quedando la media del año en 23 minutos de deporte al día).

  • [A medias] Perder grasa corporal con una media diaria de menos de 23 %.

    (Aunque en este cuarto trimestre he bajado hasta el 23,7 % al día de media, la media del año se ha quedado en 24,3 %).

  • [Conseguido] Ganar masa muscular con una media diaria de al menos 57 Kg.

    (Este cuarto trimestre he subido hasta los 58,8 Kg de masa corporal al día de media, quedando la media del año en 58,1 Kg de masa corporal al día)

  • [No conseguido] Reducir la ingesta de alcohol a como mucho una media de 0,5 cervezas al día.

    (Este cuarto trimestre no he bajado mi ingesta de alcohol, y la media del año se ha quedado en 1,1 cervezas al día).

  • [Conseguido] Registrar mi dieta diariamente tanto de lo que como y como del agua que bebo.

    (Me he mantenido, dejando la media acumulada diaria en 2.100 calorías al día).

Dinero:

  • [Conseguido] Cumplir mi horario de trabajo y no trabajar más de 1.800 horas este año.

    (He trabajado unas 1.700 horas este año).

  • [A medias] Ayudar a mi gran amigo Fernando Redondo al menos 180 horas este año.

    (He ayudado unas 170 horas este año).

  • [A medias] Colaborar con Hackathon Lovers al menos 90 horas este año.

    (He colaborado unas 75 horas este año).

  • [Conseguido] Impartir como profesor al menos 45 horas este año.

    (He impartido 65 horas de curso este año).

  • [Conseguido] Escribir en mi blog o en mi futura obra de ciencia ficción al menos 45 horas este año.

    (He escrito unas 50 horas este año).

  • [Conseguido] Dedicar a aprender DevSecOps, Ciberseguridad y/o IA al menos 45 horas este año.

    (He dedicado a aprender unas 75 horas este año).

  • [Conseguido] Leer libros al menos 45 horas este año.

    (He dedicado a leer unas 60 horas este año).


Amor:

La imagen de esta entrada ha sido generada con IA mediante PhotoMaker V2.

Iconos con licencia Creative Commons: general, salud, dinero y amor.

Comparte:    Facebook Twitter
Leer más

30 de diciembre de 2024

Receta de pollo con patatas al horno


Ingredientes:

  • 8 ajos.
  • Perejil.
  • Sal.
  • Pimienta.
  • 100 gramos de aceite de oliva.
  • 800 gramos de pollo troceado (contramuslos).
  • Un limón.
  • Medio vaso de vino blanco dulce o semidulce.
  • Colorante.
  • Una cebolla grande.
  • 600 gramos de patatas.

Preparación:

Pelamos 8 ajos y los machacamos junto con bastante perejil y una pizca de sal.

En la bandeja del horno ponemos una capa fina de aceite de oliva.

Untamos los trozos de pollo (800 gramos, normalmente contramuslos) con el ajo, el perejil y la sal y vamos poniendo los trozos encima de la bandeja del horno.

Añadimos el zumo de un limón por encima y una poquita de pimienta.

En un vaso añadimos vino blanco dulce o semidulce hasta la mitad, la otra mitad la rellenamos de agua, espolvoreamos colorante y vertemos la mezcla por encima del pollo.

Pelamos y picamos una cebolla grande en trocitos y la esparcimos por encima del pollo.

Pelamos unos 600 gramos de patatas, las cortamos en cuadrados y las esparcimos por encima del pollo y de la cebolla.

Añadimos un poco más de agua y de sal y metemos al horno a 180ºC más o menos unos 30 minutos.

Comparte:    Facebook Twitter
Leer más

25 de diciembre de 2024

Actualización de MarkdownSlides y creación de GPTs para crear presentaciones y para crear preguntas en formato GIFT para Moodle.


Hace poco me han propuesto impartir un curso práctico de IA generativa para desarrolladores. El caso es que usé MarkdownSlides para generar las presentaciones, con la ayuda de ChatGPT.


De hecho cree el GPT MarkdownSlides Creator para precisamente ayudarme con las presentaciones.

La verdad es que la IA generativa consiguió que fuese bastante más productivo, pues no soló tardé bastante menos en crear las presentaciones, si no que me ayudó también a crear preguntas en formato GIFT para Moodle.


De hecho cree el GPT Generador de Preguntas GIFT para precisamente ayudarme con los cuestionarios de Moodle.

Total, que me he dado por actualizar MarkdownSlides creando una nueva versión mejorando ciertos aspectos.

MarkdownSlides es un generador de presentaciones Reveal.js y PDF a partir de ficheros MARKDOWN, que también genera documentos HTML, EPUB y DOCX.

La idea es que a partir de un mismo fichero MARKDOWN podamos obtener presentaciones y apuntes, con versiones para profesor y alumno, todo de un mismo fichero, sin preocuparnos por el estilo, solo por el contenido.

Comparte:    Facebook Twitter
Leer más