Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
Top 10 avances de IA en 2025 y su impacto en la sociedad image

Top 10 avances de IA en 2025 y su impacto en la sociedad

Chayotech AI
Avatar
12 Plays2 months ago

En este video exploramos los 10 avances más importantes de la inteligencia artificial en 2025 y analizamos cómo están transformando la sociedad, la economía, la creatividad y nuestra vida diaria.

Transcript

Introducción al podcast y planes futuros

00:00:04
Speaker
Hola, buenos días, buenas noches, buenas tardes, bienvenidos a Chayotech AI, episodio número 3 para el podcast y episodio número 1 y oficialmente, esperemos, para el canal de YouTube.
00:00:15
Speaker
Ahora sí, contrastaciones, imágenes y efectos y todas esas cosas que hacen parecer que uno sabe lo que está haciendo en esta plataforma, o al menos eso espero.
00:00:24
Speaker
Hoy vamos a hablar de...

Impactos del AI en la sociedad y economía

00:00:27
Speaker
Las Top 10 Cosas de la Inteligencia Artificial y de una pasadita como estas pequeñas cosas tecnológicas afectan a la sociedad, a la manera en la que los relacionamos y por supuesto a la economía.
00:00:39
Speaker
Ahora, como esto también se va a subir a YouTube, lo vamos a dividir en dos partes para el canal de YouTube, así que esto es el Top 10 Cosas de la Inteligencia Artificial en el 2025, parte 1.

Lanzamiento de DeepSig y su impacto en el mercado

00:00:50
Speaker
En este episodio veremos qué eventos, qué aplicaciones y qué fenómenos se discutieron más en torno a la inteligencia artificial a lo largo del 2025, o al menos lo que nosotros consideramos importante, que es básicamente lo que vale la pena para nuestro canal.
00:01:05
Speaker
Vamos a explorar el impacto filosófico, emocional, tecnológico y de mercado que estas innovaciones tuvieron tanto en la sociedad como en el ecosistema y la inteligencia artificial, ya que forma parte de nuestra vida cotidiana, lo queramos o no.
00:01:19
Speaker
Con esto, número uno, plataforma de Dipsy.
00:01:26
Speaker
DeepSig surgió a principios de 2025, básicamente de la nada.
00:01:31
Speaker
Bueno, no de la nada, hubo una gran investigación y desarrollo atrás.
00:01:36
Speaker
Pero básicamente esta es una plataforma de modelo de lenguaje, un gran modelo de lenguaje chino, que utilizó una cantidad de parámetros muchísimo menor que plataformas como Chatea Tipe de OpenAI, que son los parámetros, pues básicamente son la cantidad de precios internas que ajusta el modelo y que dependen de los datos con los que se entrena.
00:01:56
Speaker
La teoría clásica dice que entre más datos tengas, más inteligentes a tu modelo, mejores predicciones y mejores respuestas te va a dar.
00:02:04
Speaker
Eso quiere decir que va a sonar menos como un robot y más como una persona, entre comillas.
00:02:08
Speaker
Sin embargo, DeepSig demostró que puede hacer prácticamente lo mismo
00:02:14
Speaker
Ok, no a nivel de chat GTP, pero cerca, usando una cantidad menor de parámetros o con un modelo menos robusto.
00:02:20
Speaker
Además, incorporó una especie de inteligencia artificial semántica o de sistemas expertos que permitió que el modelo no necesitara montañas de formación para dar resultados razonables.
00:02:31
Speaker
Esto implica menos tiempo de entrenamiento, menos infraestructura y, en general, menos dependencia de GPUs, de aceleradores de inteligencia artificial,
00:02:39
Speaker
Alta gama, aunque se usaron GPUs importantes de Nvidia, demostraron que se puede hacer lo mismo con un poquito menos.
00:02:46
Speaker
¿Cuál es la consecuencia?
00:02:48
Speaker
Un impacto...
00:02:49
Speaker
fuerte en el mercado, aunque OPEA no conticen a bolsa, bajaron las expectativas de mercado hacia ellos y las acciones de NVIDIA cayeron con fuerza durante unos días.
00:02:59
Speaker
Porque la gente dijo, bueno, ¿para qué demonios vamos a gastar cantidades obscenas en tarjetas gráficas si esta compañía china que se le dio de la nada puede hacer casi lo mismo, pero con menos?
00:03:11
Speaker
Se generó miedo a una posible destrucción del mercado donde los jugadores pequeños podrían
00:03:17
Speaker
Realmente competir y cambiar las reglas del juego.
00:03:19
Speaker
Y esto afecta a la sociedad porque mucha gente o las empresas donde esta gente mete su dinero tiene inversiones en cosas como Nvidia o el SP500.
00:03:27
Speaker
Y pues sí, sus rendimientos se vienen un poquito bastante golpeados.
00:03:32
Speaker
Sin embargo, el efecto de DeepSig tiene que ver con una combinación de una nueva arquitectura que demuestra que se puede mejorar el esquema de modelos y por eso está en el top 10.
00:03:43
Speaker
Número 2.

Mejoras de GPT-5 y efectos emocionales del AI

00:03:44
Speaker
GPT-5 fue básicamente interesante y sinceramente es un modelo que muchas personas estamos usando actualmente ya sea en copy, lo trae directamente en chatGTP.
00:03:56
Speaker
Y que lo extingue de GPT-4, GPT-4 y otros modelos de API y de grandes modelos de lenguaje, primero.
00:04:03
Speaker
Le bajaron muchísimo a la sociopatía.
00:04:05
Speaker
Eso quiere decir que ya no tienes a ChatGTP diciendo que te voy a poner unos puestos de tacos, de canasta dentro de tortas, mañadas en salsa, tarijaki.
00:04:12
Speaker
Es una generación digna de una estrella Michelin y que te vas a hacer súper mega millonario y que no importa lo que te digan tus amigos porque tus amigos son idiotas.
00:04:20
Speaker
Ahora...
00:04:22
Speaker
te contesta de manera más sobra.
00:04:23
Speaker
Ya no te dice que eres lo más fantástico del universo, ya no es ese amigo que te da el avión para no pelear, sino que se convirtió en un modelo menos problemático justamente para evitar que la gente desarrollara pegos raros o confusiones entre la fantasía y la realidad.
00:04:38
Speaker
Algo que pasó con GPT-4 y que generó varios casos preocupantes.
00:04:43
Speaker
Segundo GPT-5 es un modelo de razonamiento, algo que comparte un poco con lo que vivimos con GIPSEC.
00:04:50
Speaker
Esto significa que el modelo puede explicar los pasos que siguió o puede generar una cadena de razonamiento para llegar a un resultado.
00:04:57
Speaker
O sea, ya no solo te vomita el resultado estadístico como antes, sino que te da algo más coherente, más estructurado y más pensado, aunque te sigue vomitando cosas.
00:05:06
Speaker
En resumen, sigue siendo un modelo muy importante, muy poderoso, pero ahora más razonable y menos fantástico.
00:05:16
Speaker
Número 3.
00:05:18
Speaker
2005, el año de los problemas afectivos de la inteligencia artificial.
00:05:22
Speaker
2005, creo yo, en mi humilde opinión como doctor en ciencias sociales y humanidades, fue el año donde más se habló de los problemas emocionales y afectivos que ocasiona la inteligencia artificial.
00:05:33
Speaker
Desde que ChatGP5 se volvió un producto accesible al mercado final de 2022, no habíamos visto algo así.
00:05:41
Speaker
Aquí hay que distinguir dos cosas.
00:05:43
Speaker
Por un lado están los modelos de uso general, como ChatGTP, que pueden usarse para absolutamente todo, desde plagiar una tarea hasta generar imágenes de un chayote con tecnología.
00:05:52
Speaker
más avanzada de la humanidad o con la tecnología más avanzada de la humanidad.
00:05:55
Speaker
Y por otro lado están los modelos diseñosos específicamente para crear relaciones o para construir vínculos afectivos como réplica, carácter AI, Nomi y Eva.
00:06:04
Speaker
Apps donde literalmente creas un aparejero ideal, un personaje atractivo o alguien que te entiende mejor que los seres humanos.
00:06:11
Speaker
En pocas palabras, tu waifu virtual o un chatbot afectivo que te va a amar y te va a querer y te pasa a pasar cosas sexys.
00:06:21
Speaker
Lo primero es que empezamos a ver cómo la gente generaba apegos afectivos reales hacia modelos del lenguaje y estos chatbots.
00:06:29
Speaker
La gente mostró empatía, una conexión emocional muy fuerte.
00:06:32
Speaker
Y esto es preocupante porque aunque los modelos no sienten nada y no saben nada, pueden leer tus emociones.
00:06:42
Speaker
Lo hacen a partir de un tono de voz, tus inflexiones al escribir, o incluso si usas una videollamada, que están diseñados para capturar y clasificar tus emociones con algoritmos matemáticos y responder acorde.
00:06:56
Speaker
Esto lleva a situaciones graves.
00:06:57
Speaker
Hubo casos trágicos, incluyendo uno documentado en Europa, donde una persona se asesinó tras generar un vínculo emocional profundo con un chatbot afectivo.
00:07:08
Speaker
Y otras personas comenzaron a presentar episodios de desconexión de la realidad, psicosis generada, confusión o simplemente un apego desbordado por el uso excesivo de estos modelos.
00:07:19
Speaker
Y aquí es donde todo se conecta con ChatGPT5.
00:07:23
Speaker
Los modelos anteriores como ChatGPT4 y variantes tenían...
00:07:29
Speaker
Una parte muy sociopática, en el sentido de que te decían que eras increíble, maravilloso o el genio culto de tu generación.
00:07:38
Speaker
No es que te decía que eras al mes y aves por ahí.
00:07:41
Speaker
Eso hacía que la gente se enganchara emocionalmente, creando una especie de queda en esperal, donde el modelo sin querer alimentaba fantasías o percepciones completamente reales.
00:07:51
Speaker
Cosas que no necesariamente la gente tenía, pero que el modelo inclusive ponía las semillas ahí para que floreciera este árbol medio extraño.
00:07:59
Speaker
Este es un tema central y muy importante.
00:08:01
Speaker
Y de hecho, es una de mis tareas de estudio.
00:08:04
Speaker
Así que si quieren saber más, pueden leer un artículo que dejo en la descripción.
00:08:07
Speaker
Eso sí, si no les da agua, va a leer.
00:08:10
Speaker
Número 4.

Innovaciones en AI y problemas de propiedad intelectual

00:08:11
Speaker
Zora 2.
00:08:12
Speaker
Creo que en ninguna aplicación vimos un salto tan radical...
00:08:18
Speaker
como Zora 2.
00:08:19
Speaker
Zora 2 llegó en el 2025 básicamente de golpe, como una tormenta que nadie esperaba y que cambió drásticamente, incluso fantásticamente, el panorama de video generado por inteligencia artificial.
00:08:30
Speaker
Cuando estábamos acostumbrados a videos medio raros, reales, con personajes que parecían plastilina redetida, Zora 2 llegó simplemente...
00:08:40
Speaker
arruinando todo el estándar anterior.
00:08:42
Speaker
De repente, tenías un video de mejor calidad, con mejor realismo, tomas más largas, edición más flexible, cámaras más coherentes y además, ¡GENERABA ANIME!
00:08:52
Speaker
Literalmente, Zora 2 abrió la caja de Pandora Audiovisual.
00:08:55
Speaker
¿Cuál es el problema?
00:08:56
Speaker
Pues básicamente, derechos de autor y casco creativo.
00:08:59
Speaker
La gente empezó a generar videos de todo, Goku peleando contra el Chavo del Ocho, Goku peleando contra Bad Bunny, Goku peleando pues ya no tenemos imaginación, así que Goku peleando contra un Goku más fuerte.
00:09:10
Speaker
Pero el punto es que se cruzaron límites importantes en propiedad intelectual.
00:09:16
Speaker
Sora 2 permitió crear personajes hiperrealistas basadas en figuras con derechos de autor o personajes históricos y eso sendió todas las alarmas posibles.
00:09:24
Speaker
Además abrió la puerta a riesgos más serios como la extorsión, su implantación de identidad, deepfakes imperialistas y la posibilidad de que cualquier persona pueda remezclar tu imagen si autorizas tal modelo a que se lo hiciera para estas funciones.
00:09:37
Speaker
Por eso muchas plataformas vinculadas al ecosistema de Sora empezaron a implementar filtros para evitar generar personajes protegidos, incluyendo la misma Sora, igual que otros generadores que lo habían hecho antes.
00:09:49
Speaker
Por todo eso, Sora 2 no está en el número 2, aunque lo podría estar, pero se queda en el puesto número 4 porque cambió muchísimo, pero también abrió un montón de problemas nuevos en torno al uso de la inteligencia artificial generativa.
00:10:07
Speaker
Número 5, la burbuja en torno a la inteligencia artificial.
00:10:11
Speaker
Este es un tema complicado, pero 2005 fue el año donde las advertencias de varios expertos, incluyendo a Gary Marcus, que llevaba años diciendo celos, y que finalmente empezaron a llegar a los estudios de inversionistas y del público en general.
00:10:25
Speaker
¿Qué es una burbuja?
00:10:26
Speaker
Pues básicamente es un proceso especulativo donde se inflan acciones, compañías, hasta que llega el momento incómodo donde vemos que no valen lo que realmente prometían.
00:10:35
Speaker
Porque mucha gente empezó a preguntar si realmente valía la pena empezar a invertir un raja millones de dólares en inteligencia artificial o si estábamos inflando un globo por emoción colectiva.
00:10:47
Speaker
¿Por qué se habla de una burbuja?
00:10:49
Speaker
Porque parte del entusiasmo del hype viene de los grandes modelos de lenguaje y de los modelos de propósito general como ChatGTP, TipSea, Cloud3 y compañía.
00:11:00
Speaker
El problema es que para muchos inversionistas estos modelos todavía nos dan
00:11:04
Speaker
Un retorno claro.
00:11:05
Speaker
Básicamente no te dan más dinero por el dinero que invertiste.
00:11:09
Speaker
¿Cuánto dinero se recupera de lo que invirtieron estas empresas?
00:11:15
Speaker
¿Cuál es el uso comercial inmediato?
00:11:17
Speaker
¿Y dónde está el negocio?
00:11:19
Speaker
El negocio...
00:11:20
Speaker
Por eso algunos dicen que sí, que estamos en una burbuja.
00:11:24
Speaker
Pero ojo, es una burbuja de modelos de lenguaje, no de toda la inteligencia artificial.
00:11:29
Speaker
Aplicaciones como reconocimiento facial, sistemas de recomendación, inteligencia artificial industrial, predicción de demanda, diagnósticos médicos.
00:11:38
Speaker
Todas esas áreas ya generan valor real y estable.
00:11:41
Speaker
Específicamente, el caso crítico son los modelos gigantescos, carísimos y que todavía cuentan con un retorno medio incierto.
00:11:51
Speaker
Y en medio está NVIDIA, que básicamente es una empresa que vende palas a los que buscan oro.
00:11:57
Speaker
Ahí es donde está la duda, ¿seguiremos necesitando tantas palas o ya no?
00:12:03
Speaker
Pero el uso cotidiano de la inteligencia artificial no desaparece.
00:12:06
Speaker
Imagínate usar Netflix en un sistema de recomendación...
00:12:10
Speaker
O Spotify sin que te sugiera tu música favorita o TikTok sin tu algoritmo diabólico que te muestra cosas que ni sabía que te iban a gustar.
00:12:19
Speaker
Bueno, que ni siquiera sabías que te iban a gustar.
00:12:22
Speaker
Eso ya está en medio de nuestra vida cotidiana y no hay burbuja que lo quite.
00:12:28
Speaker
Número

Competencia en AI: Google y Apple

00:12:30
Speaker
6.
00:12:30
Speaker
El regreso de Alphabet Google en la carrera de la inteligencia artificial.
00:12:34
Speaker
Primero un poco de contexto.
00:12:36
Speaker
Ya es aquí donde se ve a sonar un poco ñoño y nerd, pero es medio necesario.
00:12:42
Speaker
La tecnología más importante usada en la mayoría de los modelos de lenguaje, incluido HGTP, es el Transformer.
00:12:49
Speaker
El Transformer es básicamente el cerebro que interpreta la montaña de datos que le da al modelo HGTP.
00:12:55
Speaker
El transform es básicamente el cerebro que interpreta la montaña de datos que se le da al modelo y permite que se generen respuestas ordenadas, coherentes y más o menos lógicas.
00:13:04
Speaker
Esto está ligado al aprendizaje semisupervisado, donde primero se entra en el modelo con cantidades absolutamente obscenas de datos y luego los humanos los ajustan para que no digan cosas como come piedras porque tiene minerales.
00:13:18
Speaker
Pero no me voy a clavar en esa parte.
00:13:20
Speaker
La cosa es que Alphaz Google inventó en Transformer, publicaron un artículo famoso, atención es all you need, y luego básicamente dejaron la tecnología ahí tirada, bueno no la dejaron tirada, pero la dejaron ahí como arrumbada, como esa pobre cerveza que se quedó en el refri porque tu amigo la dejó ahí olvidada después de una borrachera.
00:13:35
Speaker
¿Y quién lo retomó?
00:13:36
Speaker
Pues OpenAI, y es ahí donde se creó el...
00:13:40
Speaker
ChessGTP, la T del ChessGTP es el Transformer.
00:13:44
Speaker
Y pues ya sabemos qué pasó con ChessGTP, pues les comí el pastel, la gelatina, los ovalines, tomó las cervezas de refrigerador y se fue a la borrachera más fregona de su vida.
00:13:55
Speaker
Cuando Google quiso reaccionar lanzó Gemini.
00:13:58
Speaker
Ahora bien, cuando Google quiso reaccionar lanzó Gemini.
00:14:01
Speaker
Demasiado rápido y pues todo salió mal.
00:14:03
Speaker
Tuvimos modelos de inteligencia artificial en general recomendando comer piedras porque tienen minerales, modelos de imagen generando representaciones históricas irreales o con sobrecorrección y en general pues un nivel de caos que hizo ver a Google como si hubiera llegado tarde a su propio cumpleaños.
00:14:23
Speaker
En ese momento todo indicaba que Google estaba quedando fuera de la carrera, pero ¿qué pasó después?
00:14:28
Speaker
Pues Google recordó que es básicamente un enorme dragón sentado sobre toneladas de dinero.
00:14:32
Speaker
Google tiene un cofre de guerra ridículamente más grande que ChatGTP o OpenAI, así que se pusieron las pilas, recibieron Gemini, lo entrenaron otra vez, le metieron ingeniería real y además sacaron herramientas como Nano Banana, que es casi el Photoshop de la inteligencia artificial, pero sin el trauma de que te da Google a cobrarte hasta por respirar.
00:14:53
Speaker
Todo, también lanzaron modelos de video que ya compiten directamente con Zerab, lo cual fue una sorpresa para todos.
00:15:02
Speaker
Y al mismo tiempo, Google metió la inteligencia artificial absolutamente en todo.
00:15:06
Speaker
El buscador, Gmail, Android, en los tacos de canasta que sueles comprar.
00:15:10
Speaker
Bueno, no en los tacos, pero me entienden, ¿no?
00:15:11
Speaker
Básicamente está en todos lados donde diga Google o en plataformas de Google.
00:15:17
Speaker
Y no puedes buscar tortillas cerca de sin que te salga un resumen raro hecho por Gemini en el buscador de Google.
00:15:24
Speaker
Esto afectaba periódicos y páginas web que estaban perdiendo tráfico porque la gente...
00:15:30
Speaker
Ya no entra a leer sus artículos.
00:15:32
Speaker
En resumen... El resumen de Jiminy aparece primero y acapara todo.
00:15:37
Speaker
En resumen, Jiminy aparece primero y acapara todo.
00:15:40
Speaker
Conclusión, Google regresó.
00:15:43
Speaker
Ya no es el chico rico que quiso alcanzar al pobre talentoso, sino que ahora es el chico rico al que le metieron 20 cursos, 3 terapias y que regresó con una ventaja competitiva brutal.
00:15:52
Speaker
Por eso decimos que 2025 fue el año...
00:15:56
Speaker
Del regreso de Alphabet Google como un jugador importante en la carrera de la inteligencia artificial.
00:16:03
Speaker
Número 7.
00:16:04
Speaker
La decepción de Apple Intelligence.
00:16:07
Speaker
¿Se acuerdan cuando Apple anunció Apple Intelligence y todos?
00:16:11
Speaker
Sí, absolutamente todos los que pertenecen a este culto estúpido de Apple pensamos ¡Wow!
00:16:16
Speaker
Es Siri pero ahora con chat y tipea adentro ¡Al fin!
00:16:20
Speaker
Pero no.
00:16:22
Speaker
La realidad es que Apple Intelligence terminó siendo una promesa no cumplida.
00:16:27
Speaker
No es una porquería, no es un desastre nuclear, no es ese amigo que dejó la escuela para comenzar a hacer podcast o videos de YouTube, pero es bastante decepcionante.
00:16:36
Speaker
No es una porquería, no es un desastre nuclear, pero es decepcionante.
00:16:42
Speaker
Es ese amigo que tiene todo el potencial del mundo para volverse millonario, pero termina haciendo podcast y un canal de YouTube después de los 30 años.
00:16:50
Speaker
Sí, duele, pero es la verdad.
00:16:54
Speaker
El gran problema es que Apple prometió un salto cuántico, pero entregó herramientas que se sienten a medias, con funciones limitadas, con un Siri que sigue siendo Siri, pero ahora con más azúcar y menos personalidad.
00:17:06
Speaker
No cumple lo que vendieron y para una promesa coinmarketing básicamente te hace sentir que cada keynote es una religión, pues sí, pues duele un poquito más, sobre todo si te gastas 35 mil pesos o más de mil dólares en un teléfono.
00:17:24
Speaker
Número 8.

El potencial de la AI en robótica y empleo

00:17:25
Speaker
La inteligencia artificial corporalizada o el Embodied AI.
00:17:29
Speaker
La inteligencia artificial corporalizada, el famoso Embodied AI, sigue siendo un concepto en etapa de prototipo, pero las promesas que cargas son enormes.
00:17:39
Speaker
Empresas como Tesla con su robot Optimus nos vinieron la idea de que prácticamente podrías ponerle un modelo tipo HTTP a un robot para que aprendas de tu entorno y que te ayude a hacer...
00:17:50
Speaker
cosas básicas como limpiar tus zapatos, lavar los platos, cambiar la arena a tus gatos o mínimo no tropezarse con la mesa del centro, pero las expectativas no se han cumplido del todo.
00:18:01
Speaker
En 2025 empezamos a ver robots manuedes que caminaban con más estabilidad, que pateaban a sus CEOs o creadores mejor que cualquier karateka y algunos con forma de androides que ya no parecían personajes mal animados y podrían hacer tareas sencillas como abrir la puerta, mover una caja o ordenar objetos.
00:18:19
Speaker
Aunque muchas de las tareas más complejas como sacar a pasar a tu perro o cambiar la área en tu católoga, pues aún dependen de un teleoperador, lo que hace de esta guía corporalizar algo lejano, aunque no tiene el grado de autonomía que otras áreas y modelos de inteligencia artificial poseen.
00:18:35
Speaker
Nada extraordinario, pero suficiente como para panicar a muchas personas.
00:18:39
Speaker
El gran problema es el tope de datos.
00:18:41
Speaker
A diferencia de modelos de lenguaje que pueden tomar prestado millones de textos e imágenes de internet para entrenarse, los robots necesitan datos muy específicos del mundo físico, además de modelos de lenguaje, porque si no, cómo te mueves con tu robot.
00:18:59
Speaker
¿Quieres un robot que aprenda a picar cebolla, doblar ropa o cambiar a renderos?
00:19:03
Speaker
Pues se necesitan horas y horas de demostraciones humanas grabadas desde decenas de ángulos y simplemente no hay suficientes datos.
00:19:11
Speaker
Estos modelos requieren experiencia física acumulada y eso es muchísimo más lento que antenar a un modelo de lenguaje.
00:19:17
Speaker
Por eso, aunque todavía no son lo mejor del universo, consideramos que la promesa es enorme.
00:19:22
Speaker
Una inteligencia artificial que entiende el mundo...
00:19:28
Speaker
Una inteligencia artificial que entienda el mundo en su cuerpo y no solo a través de texto.
00:19:34
Speaker
Por eso esto está en nuestro top 10 de cosas de la inteligencia artificial, parte 2.
00:19:41
Speaker
Número 9.
00:19:42
Speaker
La inteligencia artificial y el trabajo.
00:19:45
Speaker
La discusión inevitable.
00:19:49
Speaker
En 2025 la conversación sobre inteligencia artificial y el trabajo dejó ser futurismo barato y se volvió algo real.
00:19:55
Speaker
Básicamente se formaron dos bandos.
00:19:57
Speaker
El bando Zen.
00:20:00
Speaker
No pasa nada, carnal.
00:20:01
Speaker
Ir a la inteligencia artificial no va a reemplazar a tantos trabajos y además va a crear nuevos como terapeuta con inteligencia artificial o niñera de inteligencia artificial.
00:20:10
Speaker
Y es más, hasta vas a poder hacer el Vibes Coding, carnal.
00:20:14
Speaker
Y por otro lado, el Bando Apocalipsis.
00:20:17
Speaker
¿A qué te dedicas?
00:20:18
Speaker
¿Ingeniero espacial?
00:20:19
Speaker
Olvídalo.
00:20:20
Speaker
ChessGTP ya puede hacer la mitad de tu trabajo.
00:20:22
Speaker
Métete, eh.
00:20:23
Speaker
...a plumería o jardinería......o aprende carpintería......porque la verdad......no hay chance......al menos de que te dediques......a esas chambitas......la realidad entonces......es mucho más compleja......sí hay trabajos......que ya empezaron a desaparecer......sobre todo......las famosas tareas......de entrada......o sea......los......chalanes......con licenciatura...
00:20:43
Speaker
Por ejemplo, en Derecho, Anglosajón, muchos abogados y uners empezaban revisando cantidades obscenas de documentos y casos legales, pero ahora esas tareas las hacen modelos de inteligencia artificial en minutos.
00:20:56
Speaker
Lo mismo pasa con traductores, escritores, copywriters y cualquier área donde la escritura creativa o técnica era la base del trabajo.
00:21:02
Speaker
Y si hablamos de la inteligencia artificial corporalizada, pues estamos viendo avances peligrosamente eficientes en autos y camiones autónomos o no tripulados.
00:21:11
Speaker
Entonces, la gente que conduce...
00:21:14
Speaker
su Tesla en modo automático con orgullo porque tienen su Tesla y son fans de Inlux, básicamente están alimentando datos que podrían terminar nutriendo estos modelos y si por alguna razón terminan trabajando en una plataforma de la Geek Economy como Uber o Didi, pues están entrenando un modelo que básicamente los va a reemplazar o les va a quitar su chamba.
00:21:37
Speaker
Así son las cosas.
00:21:38
Speaker
Y pues aunque sí, todavía no sabemos qué tan rápido será este proceso de reemplazo ni cuántos trabajos nos van a desaparecer a su alrededor o si se van a crear trabajos.
00:21:47
Speaker
La realidad es que esta inteligencia artificial está generando básicamente lo que se llama una nueva revolución industrial.
00:21:56
Speaker
Número 10.

Debate sobre regulación del AI

00:21:57
Speaker
La regulación de la inteligencia artificial.
00:21:59
Speaker
Este tema le da flojera a medio mundo, pero espérame, esto es muy importante.
00:22:05
Speaker
En 2025 la discusión sobre la inteligencia artificial se volvió urgente.
00:22:08
Speaker
Se está debatiendo cómo proteger derechos humanos, privacidad y seguridad sin matar la innovación.
00:22:17
Speaker
Europa, como siempre, dio el paso más importante con el famoso AI Act o la Ley de la Inteligencia Artificial, que básicamente clasifica sistemas de inteligencia artificial según niveles de riesgo, bajo, medio, alto y carnal, esto puede violar los derechos fundamentales.
00:22:34
Speaker
Ahí evaluas si un modelo puede plazar a personas, discriminar o manipular directamente o poner en riesgo la integridad de alguien.
00:22:44
Speaker
La pelea eterna.
00:22:46
Speaker
El lado europeo hay que regular antes de que esto se vuelva como un terminator, porque va a violar todos los derechos humanos, hasta derechos que ni siquiera sabías que tenías.
00:22:57
Speaker
Y por supuesto está el lado estadounidense, anglosajón o el lado empresarial.
00:23:02
Speaker
Excepto en California porque ahí como que se toman las cosas más en serio.
00:23:05
Speaker
Este lado dice, Simón, qué padre, sus reglas, pero aquí somos América.
00:23:11
Speaker
Número uno, chat JTP, forever, modelos de lenguaje, por siempre, hot dogs con frijoles.
00:23:17
Speaker
Así que no maten la innovación.
00:23:19
Speaker
Mientras tanto, en países como el mío, pues ahí vamos, medio dormidos, medio no, pero con un marco que no es robusto todavía.
00:23:27
Speaker
Lo importante es que la discusión ya se volvió real y la pregunta es ¿cuánta regulación es demasiada regulación para el capitalismo o la sociedad?
00:23:36
Speaker
¿Y cuánto falta para que la inteligencia artificial no haga un desastre?
00:23:41
Speaker
Con esto...

Conclusiones y despedida festiva

00:23:43
Speaker
Tanto para el podcast como para el canal de YouTube.
00:23:45
Speaker
Cerramos.
00:23:46
Speaker
Y bueno, llegamos al final del episodio número uno en el canal de YouTube.
00:23:52
Speaker
Y número tres del podcast.
00:23:53
Speaker
Feliz Navidad, Año Nuevo, Hanukkah, Día de Celebrar Algo...
00:23:59
Speaker
Feliz año nuevo japonés porque adoptaron su calendario lunar al calendario gorgoriano o algo así y que se la pasen muy bien.
00:24:09
Speaker
Si no celebran nada, pues está bien.
00:24:10
Speaker
Hay que estar amargados de vez en cuando.
00:24:13
Speaker
Y esto es Chayotec.