loader from loading.io

MoonMakers, dos makers mexicanos repletos de energía

La Hora Maker

Release Date: 05/26/2019

Cómo mejorar el rendimiento de tus LLM usando ejemplos show art Cómo mejorar el rendimiento de tus LLM usando ejemplos

La Hora Maker

Hoy explicaremos cómo mejorar el rendimiento de tu LLM a través de ejemplos. Para ellos seguiremos el paper "Language models are few-shot learners" publicado por OpenAI junto a GPT-3. Esta técnica nos va a permitir conseguir obtener resultados más precisos tanto con modelos pequeños como con modelos más grandes, modificando simplemente la forma en la que describimos la tarea en cuestión.

info_outline
Cómo emplear tu LLM local - como sacar el máximo partido con los modelos de chat tipo ChatGPT show art Cómo emplear tu LLM local - como sacar el máximo partido con los modelos de chat tipo ChatGPT

La Hora Maker

En este episodio vamos a explorar distintas formas de sacar el máximo partido a tu modelo grande de lenguaje (LLM). Revisaremos algunas instrucciones (prompts) y exploraremos el espacio latente de posibilidades de los modelos. ¿Te has encontrado con algún reto a la hora de conseguir los resultados esperados con tu LLM local? Referencias mencionadas durante el episodio: The ChatGPT Prompt Book: Buscador Phind: GPT Masterclass : 4 years of Prompt Engineering in 16 Minutes:

info_outline
¡Manos a la obra! - Configuremos nuestros LLMs locales show art ¡Manos a la obra! - Configuremos nuestros LLMs locales

La Hora Maker

En este episodio voy a explicar las diferencias entre distintos programas para consultar diversos modelos grandes de lenguage (LLM) con licencias abiertas. Podrás aprender sobre tres de los clientes más populares: Ollama, Text-generation-webui y LM Studio. Cada una tiene sus pros y sus contras y al final del episodio podrás elegir entre distintos entornos, similares a ChatGPT, corriendo en tu ordenador, sin tener que conectar con ningún servidor externo. Existen multitud de modelos a elegir y la calidad de los mismos va mejorando cada día. Además se están encontrando multitud de...

info_outline
Qué equipo necesito para generar textos rápidamente en local con Llama-2, Mistral, etc. show art Qué equipo necesito para generar textos rápidamente en local con Llama-2, Mistral, etc.

La Hora Maker

En este episodio vamos a descubrir cuál es el principal factor para determinar la velocidad de creación de texto en distintas plataformas. Compararemos el potencial de las tarjetas RTX, las CPU Intel o Ryzen y ordenadores más modestos como las Raspberry Pi.

info_outline
Criterios para elegir tu modelo de Large Language Model show art Criterios para elegir tu modelo de Large Language Model

La Hora Maker

En este episodio vamos a explorar algunos de los parámetros más importantes para elegir tu modelo de Large Language Model. Revisaremos cuáles son los términos más habituales, aquellos modelos más comunes y empezaremos a descubrir plataformas en los que probarlos tanto online como localmente.

info_outline
Parámetros más importantes para la calidad de un modelo de IA LLM show art Parámetros más importantes para la calidad de un modelo de IA LLM

La Hora Maker

En este video vamos a explicar la relación entre el tamaño de los modelos de inteligencia artificial generativas y la calidad de los mismos. Hablaremos sobre cómo se entrenan estos modelos, cuáles son algunas de sus fuentes y como han evolucionado a lo largo del tiempo.   En este episodio hemos empleado las visualizaciones disponibles en la página 

info_outline
Es el momento de las Inteligencias Artificiales Generativas show art Es el momento de las Inteligencias Artificiales Generativas

La Hora Maker

En este episodio del podcast vamos a hablar sobre la inteligencia artificial generativa, explorando los avances que se han producido en este campo durante el último año. Hablaremos sobre algunos de los modelos más destacados como ChatGPT, Stable Diffusion y Llama-2, ofreciendo contexto de porqué nos encontramos en un momento único para el desarrollo de esta tecnología.

info_outline
Descifrando los nombres de modelos LLM abiertos en Hugging Face show art Descifrando los nombres de modelos LLM abiertos en Hugging Face

La Hora Maker

En el episodio de hoy vamos a descifrar todos y cada uno de los detalles de los nombres de los modelos grandes de lenguaje abiertos. En la página de Hugging Face de TheBloke, podemos encontrar miles de modelos cuyos nombres parecen indescifrables. Hasta hoy. Gracias a este video podrás filtrar de forma rápida los modelos, formatos y programas que más te convienen para poder ejecutar tu propio LLM local.

info_outline
Conversamos sobre Post Open Source con David Cuartielles show art Conversamos sobre Post Open Source con David Cuartielles

La Hora Maker

Hoy hablaremos sobre una de las charlas que ha generado más comentarios en el último mes. ¡Hablaremos sobre Post Open Source! Esta charla se ofreció inicialmente en Granabot, uno de los eventos pioneros de divulgación sobre robótica, que se celebra en Granada. Durante el evento David habló sobre una línea de investigación que está explorando sobre las ramificaciones del Open Source más allá del código. En esta conversación retomamos su presentación y hablaremos sobre los distintos casos de estudio que le gustaría abordar. ¿Hay alguno de los ejemplos que te parezca...

info_outline
¿Qué es el 5G? show art ¿Qué es el 5G?

La Hora Maker

En el programa de hoy respondemos las preguntas más habituales respecto al 5G y os invitamos a participar en los próximos eventos de DeviceLab 5G. Puedes apuntarte ya mismo a través del siguiente enlace: https://www.soko.tech/device-lab-5g/

info_outline
 
More Episodes

Esta semana os traemos a MoonMakers, un grupo de makers mexicanos. Durante la entrevista exploraremos algunos de sus últimos proyectos y el tour que está realizando por Europa para conocer distintos aceleradores de partículas.

Había tanto flow en el entrevista que lo mismo adoptamos la música al final como sintonía del programa :) 

Podéis encontrarles en redes en @moonmakers ¿Les recomendaríais algún otro sitio para aprovechar el viaje? ¡Somos todo oídos en las redes sociales!