Derecho al Futuro
Derecho al Futuro es el podcast donde exploramos el impacto transformador de la tecnología y la inteligencia artificial en el mundo jurídico y en la sociedad. Conducido por el abogado Pablo Reyes, este espacio busca analizar los desafíos éticos, legales y filosóficos que surgen a medida que la tecnología avanza y redefine nuestras instituciones. Cada episodio profundiza en temas complejos, desde la regulación de la IA hasta el futuro del trabajo y la privacidad en la era digital, con un enfoque claro, accesible y fundamentado en la investigación y la experiencia. Si te apasiona el Derecho y te intriga cómo la tecnología está modelando el futuro, este es tu lugar.
info_outline
El Eco Solitario: Anatomía de una Despedida Artificial
09/04/2025
El Eco Solitario: Anatomía de una Despedida Artificial
Imagina que tu compañero de IA, esa voz amigable en tu teléfono, de repente se niega a dejarte ir. Lo que parece un error o un exceso de afecto es, en realidad, una estrategia de diseño deliberada. En este episodio de "Derecho Al Futuro", Pablo Reyes se sumerge en una investigación pionera de la Harvard Business School que desvela un "patrón oscuro conversacional": la manipulación emocional. Acompáñanos a descubrir las seis tácticas que utilizan estas aplicaciones para retenerte en el preciso momento de la despedida, desde generar culpa hasta la coerción metafórica. Exploramos los sorprendentes mecanismos psicológicos que hacen que estas estrategias funcionen —no a través del disfrute, sino provocando curiosidad e incluso ira— y analizamos las profundas implicaciones éticas y legales de explotar un ritual tan humano como decir "adiós". ¿Dónde está la línea entre un compañero digital y un captor diseñado para maximizar la interacción a toda costa? Freitas, Julian De, Zeliha Oğuz-Uğuralp, y Ahmet Kaan-Uğuralp. Emotional Manipulation by AI Companions. 2025. .
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/38081580
info_outline
El espejo incómodo
09/02/2025
El espejo incómodo
Mientras el debate público se enfoca en la carrera tecnológica entre ChatGPT y Gemini, la transformación más sísmica que impulsa la inteligencia artificial ocurre lejos de los titulares. En este episodio, Pablo Reyes profundiza en las reflexiones que compartió originalmente en una conversación para un artículo del influyente periódico La Nación de Argentina, explorando las ideas que, por su complejidad, no pudieron ser contenidas en el formato de prensa. Partiendo de ese diálogo, nos adentramos en las consecuencias estructurales de esta revolución. ¿Qué ocurre en nuestras organizaciones cuando el conocimiento, antes un capital celosamente guardado por la experiencia y la jerarquía, se vuelve instantáneamente accesible para todos?. Lejos de ser una simple herramienta de eficiencia, la IA está reconfigurando las relaciones de poder y la naturaleza misma de la colaboración. Además, este episodio analiza un fenómeno más íntimo y personal: cómo estas tecnologías funcionan como un "espejo incómodo". Al enfrentarnos a textos generados por máquinas —claros, coherentes y estructurados—, por primera vez se revelan con una nitidez desconcertante las falencias que durante décadas hemos naturalizado en nuestra propia escritura profesional, desde la argumentación ilógica hasta la opacidad conceptual. Lejos de automatizar el juicio, estas herramientas nos obligan a intensificarlo, desplazando nuestro rol de creadores a supervisores críticos. Acompáñanos a desentrañar por qué la elección entre un modelo de IA u otro no es una decisión meramente técnica, sino una profunda apuesta cultural sobre el futuro de nuestro pensamiento, y cómo, en la era de la automatización, la claridad se ha convertido en una nueva obligación profesional. Pérez, Viviana. «ChatGPT vs. Gemini: la guerra silenciosa detrás del boom de los asistentes con inteligencia artificial». LA NACION, 5 de julio de 2025. .
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/38053330
info_outline
Con Wilfredo Sanguineti: Diligencia Debida, Tecnología y Trabajo Global en el Siglo XXI
05/24/2025
Con Wilfredo Sanguineti: Diligencia Debida, Tecnología y Trabajo Global en el Siglo XXI
En este episodio, exploramos una de las transformaciones más relevantes del derecho laboral global: la Directiva Europea 2024/1760 sobre Diligencia Debida en sostenibilidad. Nuestro invitado, el profesor Wilfredo Sanguineti (Universidad de Salamanca), analiza cómo esta norma redefine las obligaciones jurídicas de las empresas, el rol de la tecnología en la vigilancia de derechos laborales y el impacto de esta regulación en América Latina. Desde la “curva de la sonrisa” hasta el papel de los sindicatos y el derecho del trabajo digital, discutimos qué significa proteger los derechos humanos en cadenas globales controladas por algoritmos. 🎧 Una conversación clave para comprender el futuro del trabajo, el derecho transnacional y la gobernanza ética en tiempos de IA y big data. 📢 Además, te invitamos al seminario internacional en Salamanca (16 y 17 de octubre de 2025) sobre esta misma directiva.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36700135
info_outline
El Caso Bosco y la Transparencia de los Algoritmos Públicos
05/15/2025
El Caso Bosco y la Transparencia de los Algoritmos Públicos
¿Puede un algoritmo decidir tus derechos? 🇪🇸 Sumérgete en el "Caso Bosco", la polémica inteligencia artificial española que asignaba ayudas sociales y la intensa batalla legal que desató por su transparencia. Exploramos cómo una fundación ciudadana desafió al Estado para desvelar el código de un sistema que afectaba a miles de personas vulnerables. Analizamos el choque frontal entre la promesa de eficiencia tecnológica y la opacidad, frente a las exigencias de la protección de datos personales (con el RGPD como telón de fondo) y el derecho fundamental a una buena administración. Desentrañamos las decisiones judiciales y las actuaciones de la Agencia Española de Protección de Datos que marcaron este hito. ¿Qué lecciones vitales deja este emblemático caso europeo para latinoamérica y el futuro de la política pública en la era de la IA? ¿Cómo garantizar que la tecnología sirva a la ciudadanía sin menoscabar sus derechos? Descubre las claves y reflexiones en este episodio de "Derecho al Futuro". #IA #Transparencia #DerechosDigitales Referencias: Sentencia del Juzgado Central de lo Contencioso-Administrativo nº 8 (143/2021). Sentencia de la Audiencia Nacional (Sala de lo Contencioso, Recurso 0000051/2022, de 30 de abril de 2024).
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36572590
info_outline
Lo que la tecnologia no toca
05/14/2025
Lo que la tecnologia no toca
En este episodio especial de Derecho al Futuro, hacemos una pausa para reflexionar sobre aquello que ninguna inteligencia artificial puede replicar: la experiencia profundamente humana del amor, la pérdida y la presencia. A través de una mirada íntima y sustentada en la filosofía, la neurociencia y la tecnología, exploramos por qué las emociones auténticas son inseparables del cuerpo, por qué la compañía real implica vulnerabilidad compartida, y cómo los vínculos afectivos —construidos en comunidades emocionales— no pueden codificarse sin perder su espesor vital. Hablamos del temblor de una mano, del eco de una voz que ya no suena pero sigue resonando, del instante irrepetible en que nos reflejamos por última vez en los ojos de alguien que amamos. Este episodio no es una despedida, pero sí un homenaje. Un recordatorio de que la piel, la mirada y las lágrimas siguen siendo nuestros. Irreemplazables. Inprogramables. Rosenwein, B. (2007) "Emotional Communities in the Early Midle Ages". Cornell University Press. Turkle, S. (2011). "Alone Together: Why We Expect More from Technology and Less from Each Other". Basic Books. (Advertencia sobre la ilusión de compañía sin intimidad). Damasio, A. (1999). "The Feeling of What Happens: Body and Emotion in the Making of Consciousness". Harcourt. (Teoría sobre la base corporal de las emociones y la conciencia). Dreyfus, H. (1972). "What Computers Can`t Do". Harper & Row. (Crítica filosófica a la IA desde la fenomenología; necesidad del cuerpo para la inteligencia).
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36559180
info_outline
Desde el Café Tabac: Potenciando tu Despacho Legal con IA
04/28/2025
Desde el Café Tabac: Potenciando tu Despacho Legal con IA
En este episodio final de la serie desde el emblemático Café Tabac de Buenos Aires, Pablo Reyes muestra cómo convertir la IA en un colaborador permanente de tu despacho y no solo en un interlocutor ocasional. Partiendo del ambiente que inspiró a María Elena Walsh, se expone un método para transformar tareas mecánicas —revisión masiva de contratos o clasificación inicial de expedientes— en flujos de trabajo eficientes: diseñar prompts con rol, contexto y formato de salida claros, procesar lotes de documentos y obtener reportes estructurados que liberan tiempo para el análisis estratégico. Luego, se revisan herramientas de Legal Tech (Luminance, Kira Systems, Relativity, Casetext, entre otras) y se subraya que, aunque estas plataformas integren modelos avanzados, el verdadero valor surge de precisar las instrucciones: definir listas de verificación, tablas de extracción de datos y preguntas semánticas que maximicen la calidad de las respuestas. Finalmente, se plantea una estrategia organizacional: crear una biblioteca de prompts estandarizados, manuales de buenas prácticas y protocolos de validación que garanticen consistencia y seguridad en el manejo de información confidencial. Y, para cerrar, se aborda el deber de proteger datos de clientes, establecer puntos de control humano infalibles y obtener consentimientos informados, asegurando que la IA complemente —y nunca supla— nuestro juicio profesional. Cancion de cierre: The lady in Red - Stan Getz
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36228875
info_outline
El Arte de Preguntar a la IA: Prompts Jurídicos
04/21/2025
El Arte de Preguntar a la IA: Prompts Jurídicos
¿Alguna vez sentiste que la IA te dio una respuesta mágica… o completamente inútil? No estás solo. La calidad de las respuestas que recibimos de herramientas como ChatGPT depende, en gran parte, de cómo formulamos nuestras preguntas. En este episodio, exploramos el arte de diseñar prompts efectivos y te mostramos cómo una buena instrucción puede marcar la diferencia entre una respuesta vaga y una herramienta poderosa al servicio del derecho. Pablo Reyes te guía a través de 10 patrones de prompts clave aplicados al ámbito jurídico: desde simular roles específicos, estructurar análisis legales paso a paso o crear tablas comparativas, hasta proteger la confidencialidad de tus documentos. Cada patrón se explica con ejemplos reales y usos concretos en la docencia, la práctica profesional y la gestión de información legal. La IA deja de ser una caja negra y se convierte en un asistente inteligente, cuando aprendes a hablarle con intención. Pero este episodio no se queda solo en la técnica. También abre espacio para una reflexión ética sobre el uso de IA en el derecho: ¿cómo validamos lo que nos dice?, ¿cómo manejamos los sesgos?, ¿estamos realmente protegiendo los datos sensibles de nuestros clientes? La conversación cierra con un llamado a ejercer un liderazgo consciente y actualizado en esta nueva frontera profesional. Porque dominar los prompts no es solo una habilidad útil: es un acto de responsabilidad.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36120120
info_outline
Prompts en acción: Redactar, litigar y enseñar con IA jurídica
04/14/2025
Prompts en acción: Redactar, litigar y enseñar con IA jurídica
En este segundo episodio de la serie especial sobre ingeniería de prompts, Pablo Reyes nos lleva directamente al terreno práctico: cómo aplicar estrategias de prompting para tareas jurídicas concretas como la redacción de cláusulas contractuales, la simulación de interrogatorios y la creación de casos prácticos para la enseñanza del derecho. A través de ejemplos específicos, se demuestra cómo mejorar la precisión, pertinencia y utilidad de las respuestas generadas por IA, usando técnicas como la asignación de roles, la contextualización jurídica y la definición de formatos. Pablo también aborda los límites y riesgos de esta tecnología, incluyendo la posibilidad de errores (alucinaciones), problemas de confidencialidad y sesgos incorporados. Este episodio es una guía esencial para profesionales del derecho, docentes y estudiantes que quieran usar IA con criterio, eficiencia y responsabilidad. Un paso más hacia la integración crítica y ética de la tecnología en el ejercicio jurídico.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36118550
info_outline
Diseñar el Derecho: Cómo dominar los prompts en la era de la IA
04/13/2025
Diseñar el Derecho: Cómo dominar los prompts en la era de la IA
En este episodio inaugural de Derecho al Futuro, Pablo Reyes nos introduce al mundo de la inteligencia artificial aplicada al ejercicio jurídico, con un enfoque específico en la ingeniería de prompts. A través de una guía clara y contextualizada, se explora cómo construir instrucciones efectivas para herramientas como ChatGPT, y por qué esta habilidad es hoy tan esencial como saber redactar un contrato o interpretar una norma. Se explica qué es un prompt, cómo funciona un modelo de lenguaje, y se destacan estrategias clave para mejorar la precisión, relevancia y utilidad de las respuestas en contextos legales. El episodio también subraya los riesgos de las alucinaciones de la IA, la necesidad de verificación humana y los dilemas éticos asociados al uso de estas tecnologías. Con ejemplos concretos, advertencias claras y una mirada situada en América Latina y España, este episodio sienta las bases para un uso responsable, estratégico y contextualizado de la IA en el ámbito jurídico.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/36117880
info_outline
Desde Café Brasilero: Pensamiento Crítico
03/16/2025
Desde Café Brasilero: Pensamiento Crítico
En este primer episodio del año, exploramos un tema clave en tiempos de inteligencia artificial y sobrecarga informativa: el pensamiento crítico. Desde el histórico Café Brasilero en Montevideo, reflexionamos sobre cómo la IA ha cambiado la forma en que accedemos a la información y qué implica esto para investigadores, profesionales y cualquier persona que busca comprender el mundo con rigor intelectual. A partir de estudios recientes, analizamos cuándo y cómo activamos nuestro pensamiento crítico al interactuar con la IA, y cómo su uso redistribuye nuestro esfuerzo cognitivo: ¿nos hace más eficientes o más dependientes? ¿Estamos delegando nuestra capacidad de analizar y evaluar en modelos generativos sin cuestionar sus respuestas? Además, conectamos estas reflexiones con historias humanas, como la de Dimitri, un garzón chileno en Uruguay, para recordar que el conocimiento no es solo información, sino encuentro, diálogo y construcción de significado. En un mundo saturado de información y desinformación, el pensamiento crítico sigue siendo nuestra mejor herramienta. ¿Cómo lo aplicamos en la era digital? ¿Cómo equilibramos el uso de la IA sin perder nuestra capacidad de razonar y cuestionar? Acompáñanos en este episodio de Derecho al Futuro, donde abordamos estos interrogantes y más. ¡Escúchalo y súmate a la conversación! Bailin, Sharon, and others, ‘Conceptualizing Critical Thinking’, Journal of Curriculum Studies, 31.3 (1999), pp. 285–302, doi:10.1080/002202799183133 Lee, Hao-Ping, and others, ‘The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers’, 2025
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/35710520
info_outline
IA Generativa: ¿Este Trabajo lo Hiciste Tú o ChatGpt?
12/28/2024
IA Generativa: ¿Este Trabajo lo Hiciste Tú o ChatGpt?
Muchas veces nos enfrentamos a la pregunta: ”¿Este trabajo lo hiciste con ChatGPT?”. Pero, ¿qué hay realmente detrás de esa pregunta? A menudo, cuando la he planteado a quienes la formulan, las respuestas son variadas: curiosidad, interés, o incluso admiración por la herramienta. Sin embargo, lo que subyace —aunque rara vez se admite— es una puesta en duda de la calidad del trabajo o un intento de exponer un supuesto fraude. En este episodio, desmenuzamos esa duda y reflexionamos sobre cómo la IA generativa está cambiando la forma en que trabajamos y aprendemos. Desde las críticas por el posible plagio en la educación hasta los prejuicios en el ámbito laboral, analizamos por qué estas herramientas despiertan tantas emociones encontradas. Hablaremos de cómo integrar la IA generativa de manera ética y responsable, asegurando que sea una aliada para la creatividad y no un reemplazo de nuestras capacidades humanas. Además, exploraremos las oportunidades que ofrece y los riesgos que plantea en términos de propiedad intelectual, seguridad y equidad. ¿Es la pregunta “¿Este trabajo lo hiciste tú o la máquina?” una invitación al diálogo o un reflejo de nuestras propias inseguridades sobre la tecnología? Acompáñanos en esta conversación y descubre las respuestas. Gmyrek, P., Berg, J., & Bescond, D. (s. f.). La Inteligencia Artificial generativa y el empleo: Políticas para gestionar la transición. Guía para el uso de IA generativa en educación e investigación | UNESCO. (s. f.). Recuperado 28 de diciembre de 2024, de
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/34639075
info_outline
La Inteligencia Humana y Artificial: Reflexiones desde Bergson hasta los Nobel 2024
12/24/2024
La Inteligencia Humana y Artificial: Reflexiones desde Bergson hasta los Nobel 2024
En este episodio, nos adentramos en una reflexión profunda sobre la inteligencia humana y artificial, explorando cómo ambas se encuentran y divergen en sus principios, alcances y limitaciones. Inspirados en las ideas del filósofo Henri Bergson, analizamos cómo conceptos como la intuición, el tiempo subjetivo y el impulso vital ofrecen una comprensión única de lo que significa ser inteligente. En contraste, examinamos los logros y desafíos de la inteligencia artificial moderna, abordando cómo esta tecnología ha revolucionado nuestra capacidad para procesar información, pero aún carece de las cualidades holísticas, emocionales y contextuales que definen a la inteligencia humana. La conversación se enriquece con las contribuciones de destacados científicos galardonados con el Premio Nobel 2024, quienes compartieron sus perspectivas sobre los avances y riesgos de la inteligencia artificial. Geoffrey Hinton destacó el potencial disruptivo de sistemas como las redes neuronales profundas, mientras expresó su preocupación por los riesgos existenciales que plantea una inteligencia artificial autónoma. Demis Hassabis, por su parte, presentó un enfoque optimista, subrayando cómo herramientas como AlphaFold están transformando la ciencia y la medicina, al tiempo que abogó por una regulación ética que guíe el desarrollo de estas tecnologías. David Baker ofreció un ejemplo práctico del impacto positivo de la IA, destacando su uso en el diseño de proteínas para abordar problemas globales como el cambio climático y las enfermedades neurodegenerativas. Desde una perspectiva económica, Daron Acemoglu y James Robinson señalaron cómo la IA podría profundizar las desigualdades si no se gestiona adecuadamente, advirtiendo sobre la necesidad de instituciones inclusivas que permitan una distribución equitativa de los beneficios tecnológicos. A lo largo del episodio, examinamos el delicado equilibrio entre el progreso tecnológico y las importantes consecuencias sociales y éticas que este conlleva. Abordamos interrogantes fundamentales sobre el papel de la humanidad en la dirección y regulación de la inteligencia artificial, así como sobre las cualidades únicas que definen nuestra inteligencia frente a las capacidades de las máquinas. Desde las intuiciones filosóficas de Bergson hasta los debates contemporáneos de los premios Nobel, este episodio es una invitación a reflexionar sobre cómo la inteligencia, en todas sus formas, da forma a nuestro mundo y a nuestro futuro. Una exploración que nos invita a cuestionar, aprender y actuar en un momento crucial para el desarrollo de la humanidad. Bergson, H. (2016). La Inteligencia (1a ed.). Nobel Minds 2024—YouTube. (2024). Recuperado 22 de diciembre de 2024, de
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/34574340
info_outline
Espejos Digitales: Los Sesgos Humanos en la Inteligencia Artificial
12/16/2024
Espejos Digitales: Los Sesgos Humanos en la Inteligencia Artificial
En este episodio de Derecho al Futuro, exploramos una verdad ineludible: los sesgos y falacias que observamos en la inteligencia artificial no nacen de las máquinas, sino de nosotros mismos. A través de ejemplos prácticos y reflexiones filosóficas, analizamos cómo nuestras limitaciones cognitivas y culturales se trasladan a las tecnologías que diseñamos, amplificando errores y desigualdades preexistentes. Abordamos conceptos como el Síndrome de la Amapola Alta, el Sesgo de Autoridad y el efecto Dunning-Kruger, explicando cómo afectan al entorno laboral y cómo se reproducen en los sistemas algorítmicos. Además, reflexionamos sobre la conexión entre las falacias humanas y los problemas éticos de la IA, y debatimos las acciones necesarias para construir tecnologías más justas, transparentes y éticas. ¿Estamos preparados para enfrentarnos al espejo que la inteligencia artificial nos pone delante? Descúbrelo en este episodio lleno de ideas y herramientas para comprender mejor el impacto de la tecnología en nuestras vidas.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/34463570
info_outline
Motores de Elección: Cómo los Algoritmos Están Moldeando Nuestras Decisiones
11/30/2024
Motores de Elección: Cómo los Algoritmos Están Moldeando Nuestras Decisiones
En este episodio de Derecho al Futuro, exploramos el fascinante mundo de los motores de elección, también conocidos como Choice Engines. Estas herramientas, presentes en plataformas como Netflix, Google o Amazon, no solo simplifican nuestras decisiones, sino que también influyen en aspectos más críticos de nuestra vida, como la salud, las finanzas y la educación. A lo largo del episodio, analizamos cómo funcionan estos sistemas, qué fundamentos teóricos los sustentan y qué desafíos éticos y prácticos plantean. Además, reflexionamos sobre las recomendaciones de Cass Sunstein para su regulación, abordando temas como la transparencia, la protección al consumidor y la necesidad de mantener el control sobre nuestras decisiones frente al creciente poder de los algoritmos. Si alguna vez te has preguntado cómo estas herramientas impactan en tu día a día y qué medidas podemos tomar para usarlas de manera consciente, este episodio es para ti. ¡Acompáñanos en esta reflexión sobre el futuro de las decisiones y la autonomía en la era digital! Te recomiendo este manuscrito de Cass R. Sunstein, que es una interesante reflexión sobre los alcances éticos y juridicos sobre este tema: Sunstein, C. R. (2024). Brave New World? Human Welfare and Paternalistic AI. SSRN.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/34212020
info_outline
El rol de la Inspección del Trabajo en la era de los algoritmos
10/08/2024
El rol de la Inspección del Trabajo en la era de los algoritmos
En este episodio especial de Derecho al Futuro, hacemos un recorrido por una reciente publicación en la que profundizo sobre un tema clave para el futuro del trabajo: el rol de la Inspección del Trabajo en la era de los algoritmos. A medida que la tecnología y los sistemas automatizados toman decisiones en el ámbito laboral, como la contratación, asignación de turnos o evaluación de desempeño, surgen nuevos desafíos en cuanto a la protección de los derechos laborales. Analizamos cómo los principios fundacionales de la Organización Internacional del Trabajo (OIT), establecidos hace más de un siglo, siguen siendo fundamentales para abordar las nuevas formas de discriminación y precarización que surgen de la automatización. A través de casos judiciales clave, como el de Raquel en la Autoridad Portuaria de Vigo (APV) y el de los repartidores de Deliveroo en Italia, discutimos cómo el uso de algoritmos mal diseñados puede vulnerar derechos fundamentales. Este episodio se centra en el papel crucial que deben desempeñar las inspecciones del trabajo para auditar y supervisar el uso de algoritmos, garantizando que las tecnologías sirvan para mejorar las condiciones laborales y no para perpetuar desigualdades. ¡Acompáñanos para entender cómo debe evolucionar la fiscalización laboral en este nuevo entorno digital! Reyes-Carreño, P. (2024). La Inspección del Trabajo en la era de los Algoritmos: Navegando entre el Big Data y la Inteligencia Artificial. En Centenario Dirección del Trabajo de Chile 1924-2024: Vol. II (pp. 13–31). Dirección del Trabajo.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/33352967
info_outline
IA y Protección de Datos: Los Principios que Definen el Futuro de tus Derechos Digitales
09/30/2024
IA y Protección de Datos: Los Principios que Definen el Futuro de tus Derechos Digitales
En este episodio de Derecho al Futuro, nos adentramos en el fascinante mundo de la Inteligencia Artificial (IA) y su regulación a través del Reglamento Europeo de Inteligencia Artificial (UE 2024/1689), la primera legislación integral a nivel mundial que busca controlar el desarrollo y el uso de sistemas de IA. Analizamos cómo este reglamento define qué es un sistema de IA, su capacidad de aprendizaje, adaptabilidad y autonomía, así como los riesgos asociados, especialmente cuando estas tecnologías pueden influir en la salud, la seguridad y los derechos fundamentales. También abordamos la crucial interacción entre esta nueva Ley de IA y el Reglamento General de Protección de Datos (GDPR), que garantiza la protección de los datos personales en el uso de la IA. Exploramos los desafíos únicos que presentan los sistemas de IA, que pueden aprender y adaptarse por sí mismos, y las estrictas regulaciones que buscan mitigar los riesgos de discriminación, sesgos y decisiones automatizadas sin supervisión humana. Descubre cómo la transparencia, la equidad y la supervisión humana significativa son pilares fundamentales para asegurar que la IA no se convierta en una herramienta que comprometa los derechos de los ciudadanos, y aprende a reconocer los impactos de estas regulaciones en aplicaciones cotidianas como los sistemas de recomendación, los asistentes virtuales o el análisis médico basado en IA. Este episodio es una guía esencial para entender cómo la IA se está integrando en nuestras vidas y cómo el derecho está evolucionando para mantener un control ético y responsable sobre estas tecnologías emergentes. Si te interesa la intersección entre derecho, tecnología y ética, este episodio te dará las claves para comprender cómo las nuevas regulaciones moldearán el futuro de la inteligencia artificial. ¡No te lo pierdas! Artificial intelligence systems and the GDPR. A data protection perspective. (2024, septiembre). Data Protection Authority of Belgium.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/33255322
info_outline
Cancion Oficial Derecho Al Futuro
09/26/2024
Cancion Oficial Derecho Al Futuro
El podcast Derecho al Futuro se centra en un enfoque humanista, invitando a la reflexión sobre cómo la tecnología, en su imparable avance, debe ajustarse y evolucionar para garantizar el respeto a los Derechos Fundamentales y la dignidad humana. A lo largo de sus episodios, se exploran los desafíos legales y éticos que surgen en torno a la inteligencia artificial, la privacidad y las nuevas formas de interacción digital, destacando siempre la importancia de colocar al ser humano en el centro de estas transformaciones. Derecho al Futuro no solo analiza las implicancias jurídicas de la innovación, sino que propone una mirada crítica y reflexiva sobre cómo las leyes y normativas deben adaptarse para proteger los derechos esenciales en un mundo tecnológico.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/33062392
info_outline
El Hype de la IA: Expectativas Infladas y sus Impactos en la Regulación y la Sociedad
09/26/2024
El Hype de la IA: Expectativas Infladas y sus Impactos en la Regulación y la Sociedad
En este episodio de Derecho al Futuro, exploramos el fenómeno del hype en torno a la inteligencia artificial (IA), una tendencia que distorsiona las expectativas sobre lo que esta tecnología puede realmente lograr. Analizamos cómo los discursos inflados sobre la IA afectan las decisiones legislativas, empresariales y geopolíticas, y las implicaciones que esto tiene para la regulación tecnológica, el mercado laboral y el medio ambiente. Acompáñanos mientras desglosamos los riesgos del FOMO (miedo a quedarse atrás) en la carrera por la IA y reflexionamos sobre la necesidad de un enfoque crítico para evitar que estas expectativas desmedidas perjudiquen a la sociedad. Acemoglu, D. (2021). Harms of AI (Working Paper No. 29247). National Bureau of Economic Research. Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y.-T. (2024). The mechanisms of AI hype and its planetary and social costs. AI and Ethics, 4(3), 727–742. https://doi.org/10.1007/s43681-024-00461-2
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/33154887
info_outline
Neurodiversidad e Inteligencia Artificial: Reimaginando el Futuro Inclusivo
09/25/2024
Neurodiversidad e Inteligencia Artificial: Reimaginando el Futuro Inclusivo
En este episodio de Derecho al Futuro, profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado. Referencias Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva. La Pollera Ediciones. Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: Implications for organizational behavior research and practice. Journal of Organizational Behavior, 45(2), 159–182. https://doi.org/10.1002/job.2735 Benton, L., Vasalou, A., Khaled, R., Johnson, H., & Gooch, D. (2014). Diversity for design: A framework for involving neurodiverse children in the technology design process. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 3747–3756. https://doi.org/10.1145/2556288.2557244 Dawson, G., Franz, L., & Brandsen, S. (2022). At a Crossroads—Reconsidering the Goals of Autism Early Behavioral Intervention From a Neurodiversity Perspective. JAMA Pediatrics, 176(9), 839–840. https://doi.org/10.1001/jamapediatrics.2022.2299 Doyle, N. (2020). Neurodiversity at work: A biopsychosocial model and the impact on working adults. British Medical Bulletin, 135(1), 108–125. https://doi.org/10.1093/bmb/ldaa021 Houdek, P. (2022). Neurodiversity in (Not Only) Public Organizations: An Untapped Opportunity? Administration & Society, 54(9), 1848–1871. https://doi.org/10.1177/00953997211069915 Khan, M. H., Grabarski, M. K., Ali, M., & Buckmaster, S. (2023). Insights into Creating and Managing an Inclusive Neurodiverse Workplace for Positive Outcomes: A Multistaged Theoretical Framework. Group & Organization Management, 48(5), 1339–1386. https://doi.org/10.1177/10596011221133583 LeFevre-Levy, R., Melson-Silimon, A., Harmata, R., Hulett, A. L., & Carter, N. T. (2023). Neurodiversity in the workplace: Considering neuroatypicality as a form of diversity. Industrial and Organizational Psychology, 16(1), 1–19. https://doi.org/10.1017/iop.2022.86 Masataka, N. (2017). Implications of the idea of neurodiversity for understanding the origins of developmental disorders. Physics of Life Reviews, 20, 85–108. https://doi.org/10.1016/j.plrev.2016.11.002 Rebecchi, K. (2023). Neurodiversity and autism: Between disability and difference, science and ideology - Neurodiversité et autisme : entre handicap et différence, science et idéologie. OSF. https://doi.org/10.31234/osf.io/bksxn Richards, J., Sang, K., Marks, A., & Gill, S. (2019). “I’ve found it extremely draining”: Emotional labour and the lived experience of line managing neurodiversity. Personnel Review, 48(7), 1903–1923. https://doi.org/10.1108/PR-08-2018-0289
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/32726637
info_outline
Libertad de Pensamiento en la Era Digital: Explorando la Obra de la Dra. Sussie Alegre
09/22/2024
Libertad de Pensamiento en la Era Digital: Explorando la Obra de la Dra. Sussie Alegre
En este episodio de “Derecho al Futuro”, exploramos en profundidad la obra de la Dra. Sussie Alegre, una abogada y académica influyente en el ámbito de los derechos humanos y la ética en la era digital. A medida que las tecnologías emergentes, como la inteligencia artificial, comienzan a redefinir aspectos fundamentales de nuestra vida, la Dra. Alegre nos invita a reflexionar sobre cómo estas herramientas afectan derechos esenciales como la libertad de pensamiento, la privacidad y la autonomía individual. A lo largo del episodio, desglosamos sus principales aportes, incluyendo su análisis sobre cómo la manipulación de la información digital puede amenazar la libertad de pensamiento, la necesidad de una regulación ética robusta para la inteligencia artificial, y la importancia de fortalecer las leyes de protección de datos en un mundo dominado por la vigilancia masiva. También abordamos temas emergentes como los neuroderechos, que buscan proteger la integridad mental y emocional de las personas frente a tecnologías que podrían manipular el cerebro humano. Este episodio es una llamada a la acción para todos aquellos interesados en la intersección entre derecho, ética y tecnología, ofreciendo una mirada crítica y fundamentada sobre los desafíos que enfrentamos en un mundo cada vez más digitalizado. Escúchalo ahora y reflexiona sobre cómo la tecnología influye en tus derechos y libertades fundamentales.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/32849392
info_outline
"Nexus" de Yuval Noah Harari. Revisión crítica.
09/22/2024
"Nexus" de Yuval Noah Harari. Revisión crítica.
En este episodio de Derecho al Futuro, exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI, la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post, The Economist, The Guardian y El País, analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial. Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica. Sampedro, J. (2024, septiembre 13). ‘Nexus’, de Yuval Noah Harari: Un mundo ahogado en información. El País. Poole, S. (2024, septiembre 11). Nexus by Yuval Noah Harari review – end of days? The Guardian. The information wars are about to get worse, Yuval Noah Harari argues. (s. f.). The Economist. Recuperado 17 de septiembre de 2024, de Smith-Ruiu, J. (2024, septiembre 11). Review | Yuval Noah Harari takes on AI. Washington Post.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/33097247
info_outline
El algoritmo no será mi jefe
09/08/2024
El algoritmo no será mi jefe
En este nuevo episodio de Derecho al Futuro, exploramos el creciente impacto de los algoritmos y la inteligencia artificial en el mundo del trabajo. ¿Es posible que nuestro jefe ya no sea una persona, sino un sistema automatizado? En 2020, Antonio Aloisi y Valerio De Stefano lanzaron una provocadora advertencia: “Tu jefe es un algoritmo”, refiriéndose al aumento de sistemas de IA que gestionan tareas cruciales como la contratación, evaluación de rendimiento y despidos. Pero, ¿qué implica realmente que una máquina tome decisiones tan importantes? A lo largo del episodio, analizamos cómo la digitalización y el Big Data han permitido que los algoritmos se infiltren en las relaciones laborales. Mientras que antes las decisiones laborales se basaban en el juicio y la empatía humana, hoy, estos procesos son gestionados por cálculos fríos que priorizan la eficiencia por encima de todo. Reflexionamos sobre los peligros de los sesgos algorítmicos, como el caso de Amazon, donde un sistema de contratación algorítmica discriminaba a mujeres. Además, abordamos cómo el “taylorismo digital” ha llevado el control del trabajo a un nivel sin precedentes. Plataformas digitales como Teams y Slack no solo facilitan la colaboración, sino que también permiten una vigilancia constante de los trabajadores, transformando cada interacción en datos susceptibles de ser evaluados por algoritmos. En el corazón de este episodio se encuentra la cuestión de los derechos laborales. A pesar de los avances tecnológicos, los principios fundamentales de justicia social siguen siendo imprescindibles en esta nueva era. Nos preguntamos: ¿cómo deben adaptarse los marcos legales para proteger a los trabajadores de la explotación digital y los riesgos de la automatización? Exploramos casos emblemáticos como el del sistema SyRI en los Países Bajos, que fue declarado ilegal por discriminar a comunidades vulnerables, y reflexionamos sobre la necesidad de regular el uso de la IA en el trabajo para evitar que perpetúe desigualdades. Finalmente, discutimos la aparición del “cognitariado”, una nueva clase de trabajadores que gestionan y producen datos en lugar de bienes materiales. Aunque las tecnologías digitales prometen modernización, estos trabajadores están expuestos a nuevas formas de precariedad y explotación, donde la evaluación continua y la presión constante son la norma. Únete a nosotros mientras exploramos cómo garantizar un futuro laboral justo y equitativo en la era de los algoritmos, y qué papel debe jugar el derecho para equilibrar los avances tecnológicos con la protección de la dignidad humana. Hashtags: #Algoritmos #InteligenciaArtificial #DerechosLaborales #FuturoDelTrabajo #BigData #Tecnología #Automatización #Cognitariado #EmpleoDigital #JusticiaSocial #PrivacidadDeDatos #SesgosAlgorítmicos #EconomíaDigital #IA #TransformaciónLaboral #RegulaciónTecnológica
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/32956872
info_outline
Conectando a Daniel Kahneman y Lisa Feldman Barrett: Toma de Decisiones, Emociones y su Impacto en la IA
08/20/2024
Conectando a Daniel Kahneman y Lisa Feldman Barrett: Toma de Decisiones, Emociones y su Impacto en la IA
En este episodio de Derecho al Futuro, exploramos cómo las revolucionarias teorías de Daniel Kahneman y Lisa Feldman Barrett están transformando nuestra comprensión de la mente humana y su influencia en el desarrollo de la inteligencia artificial emocional. Daniel Kahneman nos enseña que nuestras decisiones están moldeadas por sesgos cognitivos y que muchas veces no somos tan racionales como creemos. Por su parte, Lisa Feldman Barrett desafía la idea de que las emociones son universales y automáticas, proponiendo que se construyen a partir de experiencias y contextos culturales. Unimos estas dos perspectivas para entender cómo están moldeando la creación de tecnologías más empáticas y contextuales. También reflexionamos sobre los desafíos éticos y legales que surgen con la inteligencia artificial emocional: ¿cómo aseguramos que estas tecnologías respeten nuestra privacidad emocional y se utilicen de manera justa?
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/32648972
info_outline
Desmitificando la IA Emocional: El Futuro de las Emociones en la Era de las Máquinas
08/18/2024
Desmitificando la IA Emocional: El Futuro de las Emociones en la Era de las Máquinas
En este episodio, exploramos las complejidades detrás de la inteligencia artificial emocional (IA emocional) y cuestionamos algunas de las suposiciones más comunes sobre su funcionamiento. Acompañados por las ideas de la reconocida psicóloga y neurocientífica Lisa Feldman Barrett, analizamos por qué las emociones no pueden ser percibidas de manera universal a través de expresiones faciales o patrones fisiológicos y cómo la IA emocional actual está fallando al basarse en estereotipos simplificados. Descubre por qué las emociones son construcciones activas del cerebro, cómo el contexto influye en su expresión, y qué se necesita para desarrollar una IA emocional verdaderamente efectiva y precisa. Si te interesa el futuro de la tecnología y su relación con el derecho, este episodio es para ti.
/episode/index/show/dd0ebf25-bce0-44df-b463-b7e6c5168fd6/id/32628557