Dataset Viewer
audio
audioduration (s) 5.42
91.8
| text
stringlengths 53
1.52k
|
---|---|
Deep Seek R1 es un logro de China que es casi tan importante como la creación de Google. ChatGPT lo supera en parte porque toman un paper escrito por Google, el paper de GPT, Transformadores Preentrenados Generativos, y el paper Attention is All You Need, la atención es todo lo que necesitas, que construye el modelo matemático, |
|
lo que hoy entendemos como grandes modelos de lenguaje, y a partir de ello construye GPT-2, luego GPT-3. Con GPT-3 entrena el modelo usando humanos para generar un comportamiento como de chat y así sale chat GPT-3 y el modelo GPT-3. Esto cambia el |
|
través de Google porque las personas en vez de googlear van a chat GPT o a Cloud o a Gemini, pero si somos justos, a ChatGPT. Y cuando salió me deprimí. La realidad es que el día que salió ChatGPT, yo vi en el futuro que el futuro no iba a estar tan divertido para las startups. Porque OpenAI necesitó miles de millones de dólares para llegar al punto al que llegó el apoyo de Microsoft, el apoyo de Oracle, dinero de una gran cantidad de players para llegar primero al modelo refinado en el que contrataron a miles y miles y miles de personas que entrenaron y refinaron el comportamiento del modelo y luego por supuesto la construcción de los datos, los servidores de inferencia, el entrenamiento. Eso me hizo pensar que este era un juego que solamente iban a ganar las empresas multivillonarias y que nosotros, las startups, ustedes que están ahí afuera, íbamos a estar condenados simplemente a crear productos que usaban el modelo, pero siempre un paso atrás. Y eso también es verdad para otras compañías. |
|
Meta, por ejemplo, los creadores de Facebook, entendían que también estaban un poquito atrás con su propio modelo Lama. Ellos demolieron un data center en el 2023 que llevaban ya completado hasta la mitad y lo volvieron a arrancar desde cero para rehacerlo con la arquitectura necesaria para el futuro de la inteligencia artificial. Hasta que un día un empleado de Meta filtra el modelo Lama y fuerza a Zuckerberg a crear un estándar libre de entrenamiento de modelos y a liberar los pesos pre entrenados sin liberar los datos de un |
|
modelo de inteligencia artificial al nivel de gpt 2 y gpt 3 este se conoce como el ama y la mano cambia todo la mar una pequeña esperanza para las startups y pues ustedes pueden correr la ama en local sin la menor duda de hecho tenemos un tutorial en platzi de cómo correr tips y que |
|
ya mismo deberían ver en el blog de platzi está disponible para todos en serio háganlo Todos los programadores necesitan hacer esto o no van a tener futuro en el mundo de la programación. Pero lo importante de la mano no es eso, sino que mostró al mundo cómo hacer esto y ahora este equipo de chinos crearon Deep Seek R1. |
|
Es un modelo que yo tengo corriendo en este laptop. Vayan, hagan el tutorial de Javi del equipo de Platzi y pónganlo a correr en sus laptops. El modelo no solamente es increíble, sino que lo destilaron. Destilarlo es un proceso en el que el modelo grandote actúa como profesor y los modelos chiquitos como estudiante y para no hacerlo muy complicado, permite crear modelos más pequeños, casi tan buenos como el modelo grande, pero siendo mucho más veloces. Yo he estado probando R1 en la versión veloz en servidores propios, la versión compacta, |
|
y es impresionante. Es básicamente del nivel de 4.2, diría yo que mejor, es del nivel de O1 mini. O sea, se mueve súper rápido. R1 es tan bueno que el equipo de WebAssembly, el equipo que se encarga de que Assembler, lenguaje de máquina, corra en el navegador, |
|
o las instrucciones que se llaman SIMD. El 99% del código lo escribió R1 y el prompt está abierto y disponible al público. Busquen acá, googleenlo, googleenlo y van a encontrarlo. Miren, R1 de DeepSeek casi seguro que es producto de un datacenter clandestino chino, porque Estados Unidos impide el envío de chips H100 a China, los chips más avanzados de Nvidia. Pero China tiene un montón de chips H800. El rumor es que tienen un clúster de 50,000 chips H800. Para que se hagan una idea, empresas como Microsoft tienen medio millón de chips H100, que son los más avanzados. |
|
R1 se puede replicar. Hugging Face, el equipo de Hugging Face, probablemente los líderes en disponibilizar de manera abierta cosas como R1 al mundo, están en este momento haciendo un proyecto para replicar el entrenamiento que hicieron en R1 la gente de la empresa que creó DeepSeek y de esa manera confirmar que se puede. El mismo equipo de OpenAI ya anunció que leyendo el paper de DeepSeq R1, encontraron que la empresa logró implementar varias de las innovaciones que el mismo OpenAI pensó para O1. |
|
R1, el modelo de China, es 1.5 órdenes de magnitud más barato que O1, con una capacidad de razonamiento muy, muy, muy similar, lo cual es impresionante porque significa que el costo de inferencia va a bajar y entonces todas las startups, |
|
todas las startups tenemos acceso a un modelo de frontera como uno de OpenAI sin invertir los millones de dólares de OpenAI. A continuación viene una explicación bien nerda y de ingeniería de R1. Bueno, no tan nerda, yo tengo mis límites y yo no sé tanto, pero voy a hacer mi mejor esfuerzo. Si te quieres saltar a lo que significa esto a nivel de estrategia de negocio, salta en el video. Pero por el futuro de tu carrera te sugiero no solamente no saltar, sino tratar de entender lo que te voy a decir y usar AI para entender todo lo que te estoy contando. Mucho de lo que explico lo explicamos en el curso de Fundamentos de Ingeniería de Software de Platzi que estamos actualizando para esta era de AI y que espero salga muy pronto. |
|
Eso básicamente significa que en la red neuronal, los números que antes tenían la precisión de un montón de decimales, ahora tienen la mitad, y eso significa que usan menos memoria y menos capacidad de cómputo, lo que los hace más veloces. También están usando una técnica de ciencias de la computación que se llama corrimiento de bits. Cuando uno programa, uno solamente piensa en bytes porque es más práctico, pero se pueden mover bit por bit cada uno de los bits de las variables y de los mensajes que le enviamos a la CPU. En C++, por ejemplo, el signo doble mayor que o doble menor que es un signo que nos permite hacer corrimiento de bits. Esto es fundamental, por ejemplo, en los algoritmos de compresión, en los códecs y ahora es fundamental en AI. |
|
Todo esto hace que se use menos memoria RAM y que se necesite menos capacidad del procesador. Hay otras cosas que hicieron, como cachear la computación de la atención, que es el sistema fundamental con el que funcionan los modelos de inteligencia artificial modernos basados en GPT. Otra cosa muy loca es que optimizaron el código específicamente para el chip H800, que tiene unas limitaciones de memoria. |
|
Y en vez de usar CUDA, CUDA es como el lenguaje que usa NVIDIA para programar directamente el código de máquina, se fueron a programar directamente en Assembler, programaron el metal, como uno lo hace cuando está programando un satélite o un misil, |
|
como se programaban las computadoras antes. De esa manera, saltaron muchas de las restricciones y maximizaron el uso de chips inferiores debido a la restricción que tiene Estados Unidos de exportación de chips a China. Todo esto de por sí hace que el modelo corra mucho más rápido en muchos de los recursos, pero también cambiaron la estrategia en la que entrenan el |
|
los transformadores, que es el agarrar todo el lenguaje de la cultura humana y estructurarla en una matriz que genera toda la red neuronal del modelo de atención para luego predecir estadísticamente la siguiente palabra en una cadena de texto. Así funcionan todos los grandes modelos de lenguaje. Pero esa respuesta no es suficiente. Las respuestas que generan los LLMs no siempre son adaptables a los humanos. Entonces uno necesita un algoritmo de recompensa, una función de recompensa, |
|
donde el modelo se sienta recompensado por generar respuestas legibles para humanos que se sientan como una conversación. Esa es la innovación de OpenAI, donde contratando a miles y miles y miles de personas, aparentemente en Kenia, pusieron a hablar a esas personas con el modelo y decirle muy bien o muy mal cada vez que respondía como si fuera un chat. |
|
Este proceso se llama RLHF o Reinforcement Learning with Human Feedback. Todo eso termina de tunear, como de refinar el modelo. Lo conocemos como Supervised Fine Tuning y casi todos los modelos tienen esto. Después del Supervised Fine Tuning viene un segundo proceso que se llama Preference Tuning o refinado de preferencia, que es lo |
|
para que esté alineado a la raza humana. R1 no usa humanos, no necesita Reinformed Learning with Human Feedback. El proceso de Reinformed Learning lo hizo con un modelo anterior que crearon llamado R1-0, que es la locura para no hacerlo muy complejojo. Con un modelo inicial de entrenamiento construyeron 600 mil ejemplos de razonamiento en el que una pregunta tiene una respuesta razonada y esos 6 mil ejemplos de razonamiento los pasaron a la fuerza al modelo final que entrenaron. Pero ¿cómo le hicieron sin humanos para detectar si una respuesta a razonamiento era la correcta o la incorrecta? |
|
Pues le preguntaron cosas que la computación normal podía verificar. Por ejemplo, si yo le pido a un modelo que me genere 500 diferentes ecuaciones matemáticas que me lleven al número 42, pues el modelo va a generar un montón de opciones. Y puede que genere 2000. |
|
Entonces, las 1500 que no generan el número 42, lo regaño con el sistema de Reinforcement Learning, esto no es. Y las 500 que sí llegué mejoraron el número 42, pues yo las puedo verificar con cualquier código de programación y le digo esto es un buen proceso. Y entonces el modelo no solamente recibe las respuestas, sino entendió que ese es el razonamiento correcto. Otro ejemplo sería pedirle código que genere un cierto tipo de estructura XML y luego con expresiones regulares |
|
de toda la vida verifico si la estructura resultante es la estructura correcta y agarro el razonamiento que generó esa estructura y lo vuelvo un reinforcement. Después de ese proceso, lo hago millones de veces, agarro solo las respuestas válidas y lo paso por el proceso |
|
de reinforcement learning y ya está. Aquí muy probablemente los chinos también se aprovecharon de datos sintéticos creados con ChatGPT 4.0 usando el API o usando incluso el mecanismo de chat. O puede que hayan usado Lama sin la menor duda. Usaron Lama, casi seguro que usaron Cloud. No importa. Lo que importa |
|
es que ya no se necesitan humanos y el entrenamiento base ya no es lo importante. El reinforcement learning se acabó como uno de los mecanismos de competencia. La otra gran innovación es lo mismo que hace uno pensar. Cuando ustedes usan Deep Seek R1, primero el modelo empieza a pensar y les |
|
muestra el pensamiento en público. O uno muestra una versión resumida del pensamiento, donde Deep Seek R1 les muestra todo su proceso de pensamiento completamente abierto. De hecho, es tan bonito que mucha gente está diciendo, me encanta que la UI me diga cómo está pensando y lo puedo esconder o desplegar. Lo amo. Yo creo que ellos crearon un nuevo paradigma de interfaz gráfica debido a esto. |
|
Y eso genera un razonamiento equivalente al de O1, 50 veces más barato. Todo esto son mejoras basadas en ingeniería de software y ciencias de computación de toda la vida. Estos no son genios matemáticos del futuro ni fundadores titánicos que son capaces de levantar billones de dólares de fondos soberanos. |
|
que Meta es el otro grandote, creo que tienen como 200 mil chips de los chips avanzados. Y esta gente lo logró con chips baratos. Todo esto usando la premisa de que la inteligencia artificial solamente tiene una forma de crecer y estirarle chips al problema. Plata y chips, plata y chips, data centers hasta donde dé el desierto de Arizona. Lo que es un chip es básicamente memoria y procesamiento. La memoria es el tamaño de la |
|
R1 cambió el juego porque con una fracción de memoria y mucho menos CPU o GPU, está logrando resultados similares. Aquí lo que va a pasar es que todas las empresas van a empezar a implementar, porque ya seguro empezaron a implementar, las mejoras de R1. Vamos a ver un modelo de Lama que implemente lo de R1, vamos a ver un modelo de OpenAI que implemente lo de R1, de Anthropic con Cloud, todo el mundo. |
|
Pero eso no es lo que importa. Lo que importa es cómo cambió el juego, porque tantos proveedores de cloud invirtieron en estos chips, que no es como que vayan a perder la plata. Entonces van a empezar a vender más barato el tiempo de chip, porque ahora se necesita menos, |
|
porque los modelos de Azure no se lo están gastando. Entonces las empresas que quieren usar AI para generar soluciones para las otras compañías como parte de sus productos les va a resultar mucho más barato y lo más increíble es que cambia la cultura, cambia la filosofía. Open AI es todo menos open. Ellos publican papers pero nunca publican sus métodos reales. Todavía tienen |
|
el mejor modelo. O3 es mejor que O1 y O3 es mucho mejor que DeepSeq R1. Pero DeepSeq R1 es buenísimo para muchas cosas y demostró que el desarrollo de código abierto global, incluso bajo sanciones, sanciones completamente justificadas, pero sanciones, pues es más rápido, es más efectivo. y eso obliga al modelo americano y obliga a empresas como OpenAI a repensar filosóficamente cómo nos aproximamos a este problema. Y se vuelve AI más parecido a la web y menos parecido al iPhone. Cualquier startup en este momento que tenga personas que sean muy buenas en matemáticas y en ciencias de la computación pueden competir con modelos de frontera. Yo estoy reconfigurando hoy todo Platzi para que nuestro equipo tenga cursos que le enseñen a todo el mundo las bases de esto y para que todo el mundo lo aprenda. Ojalá lo hagamos muy rápido y si ustedes me ayudan, pues mejor. ¿Qué se necesita saber? ¿Qué es un token? ¿Qué es una red neuronal? ¿Qué significa corrimiento de bits? ¿Cuándo usar un árbol binario? ¿Cómo funciona un transformador? Estoy leyendo mis notas. ¿Qué es el modelo de atención? ¿Qué es un transformador pre-entrenado generativo, GPT? ¿Cómo se entrena un gran modelo de lenguaje? ¿Cuál es la diferencia entre la RAM y la VR la VRAM, cuál es la diferencia entre CPU, GPU y TPU, cómo instalar LAMA y Deep Seek en local, |
|
cuál es el estado del arte de las ventanas de contexto, las técnicas avanzadas de prompting. Toda la gente que se burlaba de los Promo Engineering estaba equivocada y no tenían ni idea, ni idea, no sabían nada de lo que están diciendo. Obvio, se dedican a hacer videos en YouTube en vez de trabajar. Yo sé la ironía de lo que estoy mencionando. Pero esto incluye fine tuning, one shot, |
|
zero shot, force structure output, entre otras técnicas. Entender qué es la destilación de modelos y cómo entender un modelo destilado y correrlo, cuáles son los benchmarks de los LLMs y expresiones regulares de toda la vida. El curso nuevo de Fundamentos de Ingeniería Software de Platzi está diseñado alrededor de esto, pero si no sabes nada, empieza a tomar el curso actual que todavía es relevante. Para mí esto es el JavaScript del futuro. |
|
Esta es la carrera de desarrollo de software, la que es a prueba de futuro. Esta es la demanda de la próxima generación y nos debería importar a todos. Cada día esto va a cambiar. Eventualmente vamos a encontrar otra mejora y otra mejora y otra mejora, pero entiendan lo que esto significa. Muy probablemente |
|
el front-end development se va a volver un commodity. El iOS development se va a volver un commodity. Todo el desarrollo de frontera va a ser entender los fundamentos, porque tú no puedes hacer Android development sin entender, por ejemplo, el estado de la paginación de las vistas o el ciclo de vida de una vista. Tampoco lo puedes hacer con iOS. Eso difícilmente te lo va a enseñar un LLM. Lo puede |
|
hacer, pero es extraño. Es un concepto abstracto. Los fundamentos abstractos los necesitamos para hacer software. O si no, cualquier persona podría hacer software de alta calidad. Aún no estamos ahí. Probablemente nunca vamos a estar ahí. Pero donde sí estamos es donde hacer el código es un commodity. Optimizar el código es un commodity. Lo que no va a ser un commodity son estos conocimientos fundamentales que pegan todas las piezas y que están constantemente corriendo en la frontera. Si tú estás hoy en día en desarrollo de software, |
|
yo estaría corriendo a aprender esto ya. ¿Y qué significa para el futuro? Yo creo que esto es muy bueno para muchas compañías, excepto para Google. Yo creo que para Apple esto es excelente porque para Apple esto significa que sus dispositivos, estos MacBook Pros, yo tengo un MacBook Pro M4, |
|
y el modelo de arquitectura de CPUs de los MacBook Pros en la memoria es compartida. La memoria que tienen la comparte la CPU, la GPU, la unidad neuronal que ellos llaman, el Neural Engine, que es como un procesador paralelo específicamente para Machine Learning y los hace ver visionarios porque esto es una arquitectura incluso más ideal que la arquitectura de NVIDIA. También esto es bueno para empresas como AMD, que han estado bien detrás de NVIDIA, pero de repente esto rompe el bloqueo |
|
que tenía NVIDIA alrededor del mundo de, denme más plata porque es la única forma de avanzar en inteligencia artificial y todo el mundo tiene que aprender mi lenguaje de programación exótico de GPUs CUDA. Pues ya no. Esto es muy bueno para Meta, porque pues de manera accidental ellos terminaron siendo los líderes del mundo occidental del desarrollo abierto de inteligencias artificiales. |
|
Buenísimo para Microsoft y para Amazon Web Services. Ninguno de los dos tiene modelos de frontera, pero sí tienen unos servidores gigantescos que quieren empezar a venderle a otros. Entonces ya no dependen de OpenAI. Y ya Microsoft ha estado como rarito tratando de hacer un divorcio en cámara lenta de su negocio de OpenAI. Yo no descartaría OpenAI. Yo entiendo que DeepSync va a empezar a hacer modelos multimodales, que son los que reciben imágenes y otras cosas, pero OpenAI sigue teniendo el mejor modelo de texto en este momento con O3. Nadie ha mostrado ni verificado que hay un modelo superior a O3. |
|
Así que les sirve para correr más rápido. Es un poco duro para Antropic porque DeepSeek llegó más rápido al top de la App Store de lo que llegó Cloth. Y Cloth se gastó una cantidad de plata loquísima en marketing. |
|
El año pasado no había lugar en Estados Unidos por el que uno andara donde no hubiera una publicidad de Cloth. Hoy en día todavía hay publicidad de Cloth por todas partes, lo que pasa es que para mí ya es invisible. Pero sobre todo esto es bueno para ti. Si tú no estás trabajando en esto y no estás estudiando esto, ¿qué carajos estás haciendo? Platzi va a correr. Vamos a correr a crear todos los cursos y contenido necesario para que cualquier persona con conocimientos básicos de Linux, de programación y de las mínimas matemáticas estructuradas puedan aprender a hacer esto. |
|
Esto es lo único que necesitas. El curso de terminales y comandos, el curso de programación básica, el curso de fundamentos de ingeniería de software. Podemos mejorar nuestros cursos de matemáticas, aunque los cursos que tenemos son bastante buenos, pero vamos a estar acá para ti. Igual, este no es un punto para depender de una sola persona, de una sola empresa. Platzi va a |
|
Sam, CEO de OpenAI, junto con otros ejecutivos y Trump, anunciaron un proyecto llamado Stargate, que su objetivo es invertir 500 mil millones de dólares en infraestructura. En el evento estaba Larry Ellison, el CEO de Oracle y Hombre Inmortal. Estaba también Masayoshi Son, el CEO de SoftBank, y por supuesto Sam. |
|
uno se pone a pensar de dónde va a salir ese dinero. Entonces miremos realmente las finanzas. SoftBank tiene 38 mil millones de dólares de cash en el banco, pero tienen deuda de 142 mil millones y generan más o menos 3 mil millones de free cash flow, de flujo de caja libre al año. Softbank son los dueños de ARM, que es la gente que hace estos procesadores que nosotros conocemos como los procesadores de los dispositivos móviles, los |
|
System on a Chips de ARM, que son los que usan menos electricidad. Eso vale más o menos 143 mil millones de dólares. Si lo vendieran tendrían esa plata, pero tendrían que perder uno de los assets más importantes que tienen. Y ellos también tienen una inversión en Alibaba, que es una de las empresas más grandes de China, por 18 mil millones de dólares. No les alcanza. Luego está Oracle, que es grandote, |
|
pero Oracle solo tiene 11 mil millones de dólares de cash en el banco, deuda por 88 mil millones, y un free cash flow, un flujo de caja libre de 10 mil millones. Metieron en el juego a una empresa de infraestructura de uno de los países árabes, creo que es de Emiratos Árabes, llamada MGX, |
|
Los 500 mil millones de dólares suenan más como una idea teórica. Esto es casi 10 veces más de lo que costó la llegada a la Luna, como 20 veces más de lo que costó el proyecto Manhattan que desarrolló la bomba nuclear. Y sí, estos son números ajustados por inflación. |
|
Entonces lo primero que pasó fue que Elon Musk salió a decir, ellos no tienen esa plata. De hecho, SoftBank tiene menos de 10 mil millones de dólares en el banco. Les puedo decir eso con altos niveles de autoridad a lo que es a mal me le responde estás equivocado como ya seguramente lo sabes quieres venir el primer sitio que ya estamos construyendo esto es genial para el país y yo me di cuenta y entiendo que lo que es genial para el país no siempre es óptimo para tus compañías pero el nuevo rol en el que tienes espero que pongas a eeuu de primeras a lo que lo hemos |
|
a lograr amarte a ti mismo y luego salió que están construyendo data centers masivos en medio del desierto. Aquí lo llaman Stargate Site 1 en Texas, enero del 2025. Porque claro, la inteligencia artificial requiere un montón de infraestructura. |
|
Son muchos chips en muchísimos data centers. ¿Por qué esto de repente? Es por China. Porque a partir de ahora la pelea va a ser si Estados Unidos o China dominan la inteligencia artificial y es lo que va a ir al final de este video. Pero al mismo tiempo hay que preocuparnos por quién está detrás de esto. |
|
Larry Ellison, por ejemplo, recientemente estuvo en una entrevista donde dijo que el futuro de la inteligencia artificial va a ser posible que haya supervisión total de todos los ciudadanos para que los ciudadanos siempre estén en su mejor comportamiento. La reyes y dicen por si acaso es un man en sus ochentas. |
|
Mientras tanto, ¿por qué no hablaron de Microsoft? Microsoft es el gran aliado de OpenAI y no fue mencionado en todo esto. Así que un periodista fue a preguntarle a Satya Nadella, oiga hermano, ¿qué opina de esto? |
|
Y Satya Nadella dijo, yo todo lo que sé es que yo cumplo con los 80 mil millones de dólares con los que me comprometí para invertir en OpenAI. I'm good for my 80 billion. Es un gángster Satya Nadell, me encanta este man. Y en el proceso, mientras todo esto pasaba, todo esto pasó esta semana, liberaron a Ross Ulbricht. Trump perdonó al creador de Silk Road, la ruta de la seda, y lo sacó de prisión. |
|
¿Quién es Ross Ulbricht? Es el creador de este sitio web, que era el sitio web más grande de la red oscura, esa red a la que se accede usando Tor, para compra y venta de drogas, asesinatos y cosas terribles de la humanidad. Todo lo que era ilegal se podía comprar en la ruta de la seda. |
|
La ruta de la seda es muy importante porque Cell Road es parte de la razón por la que Bitcoin es Bitcoin. Principalmente usaban Bitcoins y era tan importante que en el momento en el que Ross Ulbricht fue arrestado y el FBI logró tumbar el sitio de la ruta de la seda, Bitcoin sufrió un crash en su cantidad de transacciones. es el sitio en la historia de Internet que más ha movido Bitcoin en la época. 9.5 millones de Bitcoins fueron transados en la época de Silk Road. Eso es al valor del día de hoy un trillón de dólares. No el trillón en español, trillón en inglés, que es números diferentes. Es muchísima plata. Es el doble de lo que necesita el proyecto Stargate. |
|
¿Por qué Trump perdonó a un vendedor de drogas al vender drogas más efectivo de la historia la humanidad desde pablo escobar porque él estuvo en una convención del partido libertario y los libertarios llevaron un montón de estas pancartas diciendo liberen arroz porque los libertarios quieren liberar arroz? Porque quieren que el Bitcoin |
|
valga más. Eso es todo. Esta es la persona responsable porque Bitcoin tengo un montón de dinero. Entonces Trump, que cumple sus promesas, cuando Trump dice algo es que lo va a hacer, liberó a el vendedor de drogas más importante del mundo. Ahora, esto es en contra de otra promesa que hizo Trump. Trump lleva bastante tiempo ya |
|
prometiendo que quiere ponerle la pena de muerte a los vendedores de drogas. Este era el vendedor de drogas más grande del mundo. ¿Y qué hizo? Liberarlo. Ojo, Ross Ulbrich no solamente es un vendedor de drogas. No se dejen engañar por su sonrisa. En los últimos días de Silk Road, Ross |
|
Ulbrich usó su sitio para contratar asesinos a sueldo para tratar de matar contrincantes. Lo que terminó pasando es que uno de los asesinos a sueldo que él contrató era un agente federal que pues lo arrestó. Esto va a estar bien difícil. Hay un curso en Platzi, es un audiocurso para gestionar de manera |
|
emocional la inversión en criptomonedas. Muchos de ustedes en este nuevo mercado potencialmente se van a ir al carajo. Les recomiendo fuertemente tomar el audiocurso de gestión emocional de inversión en criptomonedas, sobre todo antes de dejar los segurísimo comentarios desquiciados que van a dejar en este video, no hay necesidad de ver los comentarios sobre todo por lo que estoy a punto de decirles |
|
y es que no solamente perdonó a Russell Brick también perdonó a todos los asaltantes que hicieron la toma del Capitolio en el 6 una toma que dejó un policía muerto 175 heridos y 15 de gravedad. Muchos de ellos militantes de grupos extremistas y orgullosos militantes de grupos extremistas de supremacía blanca. |
|
Esta semana, desde que Trump tomó el poder, también el Departamento de Seguridad, el Homeland Security, el Department of Homeland Security, despidió a los miembros de casi todos los comités de consejo de investigación, incluyendo los comités de investigación de ciberseguridad. Ahí es donde estaban investigando el ataque que China le hizo a las diferentes empresas de telecomunicaciones de Estados Unidos |
|
con el hack South Typhoon. Ahora toda esa gente que está investigando la forma en la que China hackeó los sistemas de telecomunicaciones, de telefonía, de redes de Estados Unidos y lo siguen hackeando el día de hoy, pues ya no hay. Ese equipo ya no existe. |
|
Y al tiempo que pasaba esto, ustedes habrán visto que Trump lanzó una criptomoneda, un meme coin. La criptomoneda Trump se despegó hasta el infinito en valor. Y un poquito después salió la de Melania. La de Melania está transando por trabajo del lanzamiento, pero es una locura. Estos son monedas que lanzaron de manera oficial la cuenta oficial del presidente siendo presidente y de la primera dama, pues entre comillas, siendo primera dama. Esto es un mecanismo de estafa que es conocido en el mundo de cripto. Se llama pump and dump y ocurre cuando ocurre un rock poll. Entonces, vengan, les explico. Pump and dump es crear una moneda que no vale nada, por ejemplo, con cara de perrito, y que una persona famosa, por ejemplo, un billonario de tecnología, |
|
la empiece a promover. Promueve, promueve, promueve esto. Lo que pasa es que antes esta gente compró o es dueño de todo el valor de la moneda. Y cuando va creciendo, creciendo, creciendo, creciendo, ese es el pump. Uno vende todo para sacarle el valor y que toda la gente que compró se quede con una moneda sin valor. Ese es el dump. |
|
Y ese momento donde se saca todo es jalar la alfombra o rockpoll. Y eso fue efectivamente lo que pasó con la moneda Trump y la moneda Melania. Los creadores de la moneda, que aparentemente son consejeros de cripto dentro de la administración Trump, apenas crearon toda esta moneda. Luego, ¡fun! Jalaron toda la plata. Es impresionante. |
|
Ahora, no hay que olvidar que en esencia eso es lo mismo que es Bitcoin. Bitcoin también es un memecoin. Lo que pasa es que nadie sabe quién es Satoshi Nakamoto y aparentemente las primeras monedas dejaron de existir, lo que hace que Satoshi Nakamoto sea imposible o por lo menos improbable desde una perspectiva moderna hacer un rock poll o un pump and dump. |
|
Pero Bitcoin es tan memecoin como cualquier otra. Lo que se viene es un montón de estafas de cripto porque esto en esencia de manera efectiva legaliza las estafas de cripto. Quien perseguía este tipo de crímenes es la SEC, Securities and Exchange Commission, que es básicamente la Comisión del Dinero en Estados Unidos. Y pues eso ahora mismo está en manos de Trump. |
|
Es de Trump. Por cierto, yo sé que muchos de ustedes se van a ofender porque le dije a Bitcoin una memecoin y estoy seguro que van a dejar un comentario absolutamente sensato en la parte de abajo. Por favor, entiendan todo, incluyendo el espíritu de lo que estoy diciendo. Intenten aprender algo. Por cierto, algo que pueden aprender |
|
es cómo tener seguridad para usuarios de criptomonedas. Los van a hackear. Si ustedes tienen una criptomoneda, los van a hackear. Que no los hackeen efectivamente, es cuestión de cuánta seguridad tengan. Pero aquí necesitan atender esto. Y terminemos esta sesión con China. China es el lugar fantástico que tiene cosas como Din Tai Fung. Ah, no, |
|
ese es Taiwán. El que tiene los chips más avanzados del mundo, no, ese también es Taiwán. El que tiene el lago increíble, el Sun Moon Lake, no, no, ese también es Taiwan. Bueno, China, China es un lugar genial. En China acaban de lanzar un nuevo modelo que se llama Deep Seek. |
|
Y yo entiendo que en este momento en los comentarios la gente está apagando el cerebro, les está saliendo dos hilos de sangre por nariz y están declarándome demócrata o wow que que soy extremo no sé qué porque en esta época ya no hay necesidad de pensar pensar es opcional pensar es completamente opcional y lo único que hay que hacer es decir a la gente que de repente está en contra del dios emperador cosas hoy pronto me está pasando los comentarios cierto que no demuéstrame que estoy equivocado yo estoy equivocado ese tipo de comentarios no van a estar en la parte de abajo y |
|
van a ver comentarios interesantes basados en la razón pero en cambio si no estoy equivocado ahí va a estar abajo diciendo que uno de mis favoritos es que a freddy se le notan sus inversionistas gente que nunca levantado un solo peso inversión en su vida y cree que un saben cómo funciona el tema pero |
|
hoy vamos a hablar de inteligencia artificial deep seekSeek. DeepSeek es un modelo chino que superó OpenAI. Y esto es muy impresionante. Aquí ustedes ven diferentes test de inteligencia artificial y en azul oscuro con |
|
rayitas diagonales está DeepSeek, donde en gris están los modelos de OpenAI. No solamente supera en varios de los test de Inteligencia Artificial a los modelos más avanzados de OpenAI de razonamiento como O1, sino que además de eso es más barato. Ustedes ven acá un clúster de todos los modelos de |
|
Inteligencia Artificial en cuanto a calidad entre más arriba más barato y en cuanto a precio entre más a la derecha más caro y van a ver que uno está ya bien lejos porque es un modelo de los más caros y aquí arribita está deep seek r1 deep seek está |
|
y al nivel de uno con mucho menos precio una locura ahora como lo hicieron pues lo hicieron Más o menos robándose cosas de uno con mucho menos precio. ¡Una locura! Ahora, ¿cómo lo hicieron? Pues lo hicieron más o menos robándose cosas de uno, de GPT-4, los usaron para entrenar, eso es básicamente obvio. |
|
Pero, ¿importa? Porque el otro tema es que DeepSeek es de código abierto. Ojo, no es exactamente de código abierto, no nos están contando cómo lo entrenaron, pero la red neuronal es abierta. De hecho, fue librada con licencia MIT, entonces cualquier persona la puede usar. |
|
El cálculo en precio es que DeepSeq es significativamente más barato. Es hasta 100 veces más barato de lo que cuesta OpenAI O1 al mismo nivel. Es impresionante. |
|
Y en otros test, los modelos destilados de DeepSeq también están logrando superar a los modelos comerciales de Estados Unidos más importantes. Un modelo destilado es cuando se agarra un modelo de inteligencia artificial y se simplifica para que use menos procesamiento y menos memoria, pero pueda lograr ciertos mejores resultados. |
|
Cuando ustedes tienen ciertos casos de uso interno, esto hace mucho más barato correr los modelos, por ejemplo, en empresas. Es realmente impresionante. De hecho, este man, Brian Rommel, dice en Twitter que logró meter Deepseek R1 dentro de un Raspberry Pi, un |
|
es posible correrlo a 200 tokens por segundo. También uno se mete a ver cómo funciona DeepSeek por dentro y razona como razona o uno. Es muy impresionante. Y hace como dos horas antes de que yo grabara este video, ByDance, la empresa dueña de TikTok, cuyo CEO se sentó al lado de Trump en la inauguración y cuya aplicación el día de la inauguración de Trump salió diciendo |
|
gracias señor Trump por hacernos volver sin que le hayan pedido y sin ningún tipo de conexión legal con realmente el tema de la prohibición de TikTok derivada de la corte suprema 100% para manipular a Trump de manera |
|
exitosa hasta ahora lanzó este modelo Doubao 1.5 Pro y el modelo supera a Deepseek y supera a OpenAI. Es aparentemente más rápido y también es cinco veces más barato que DeepSig. |
|
¿Cómo lo hicieron para optimizar de una manera tan brutal? Y tengan en mente que todo esto ocurre después de que el gobierno anterior de Trump y el gobierno anterior de Biden trataran de detener con |
|
controles de exportación y con prohibiciones de chips a China. Ni el primer gobierno de Trump ni el gobierno de Biden fueron efectivos en detener el crecimiento de China alrededor de la inteligencia artificial. |
|
Lo que significa que otra vez estamos en una carrera armamentista por quien construye más rápido un modelo de inteligencia artificial efectivo. Ahora, intenten en DeepSeek preguntarle qué fue lo que pasó en Tiananmen Square. El |
|
gobierno chino mató gente allá y de repente DeepSeek se enloquece. Porque por supuesto, es un modelo de un gobierno chino. Por ende, tiene prohibido hablar de cosas que el gobierno chino censura. Entonces dicen, no, el gobierno chino nunca cometió ningún error, siempre se ha dedicado a su gente. Y miren que básicamente se vuelve loco cuando se le intenta hablar de tener menscuera. Entonces, claro, |
|
todos estamos pensando, uy, la inteligencia artificial tiene que avanzar. Pero, como decían en Silicon Valley de HBO, yo no soy de ustedes, pero yo no quiero vivir en un mundo donde alguien más hace el mundo en mejor lugar, mejor que nosotros lo hacemos. Esa es la razón por la que Stargate es un proyecto tan importante. Esa es la razón por la que tantos techies de repente están del lado |
|
del gobierno. Esa es la razón por la que uno ve a Jeff Bezos y a Sundar Pichai y a Elon Musk absolutamente pegados a sus teléfonos en medio de la inauguración de Trump. |
|
Lo difícil de predecir el futuro no es saber qué va a cambiar. Spoiler, todo va a cambiar en el futuro. Lo difícil es saber qué no va a cambiar. Lo que viene para este futuro 2025, o sea, ya arranquemos por acá. Search, la búsqueda, Google, Yahoo, Baico si lo usaron, Altavista, todos los buscadores que conocen y conocerán Bing, |
|
están en problemas por esto de la inteligencia artificial, pero ahí donde lo ven, la necesidad de la búsqueda no se ha muerto. Entonces, lo primero que les quiero compartir de cosas que yo veo que sí definitivamente van a ser tema, es más, más que tema, ahí les va, que va a ser tren del mame de este año, es la búsqueda generativa con inteligencia artificial o en palabras más amables, |
|
el hecho de que la gente ya no está usando el motor de búsqueda sino que va a chat gpt o a cualquier sistema de modelo lenguaje grande y le pregunta oye puedes tú buscar por mí y esto le dan la madre o sea desarma y pone |
|
sobre la mesa una nueva plática acerca todo el tema deseo porque indexar sus websites para que google los encuentre eso está bien pero aún así google ahorita es literal ya le están dejando que entre cualquier cosa hecha con inteligencia artificial, casi. De por sí no usamos el buscador de modos como usaríamos un chat. Es que piensen ustedes que si ustedes hacen una búsqueda de algo, |
|
lo que sea, estamos buscando restaurantes de sushi, entonces vamos a Google, restaurantes de sushi, cerca a mí, o mapas, no, restaurantes de sushi, ya. Nos va a dar una serie de resultados. Pero en un chat yo le puedo decir, oye, ¿y de esos cuál es bueno para ir con mi abuela una cosa muy muy de nicho o de esos a cuál está abierto |
|
ahorita todo eso lo puede ser en google sí pero en últimas la interacción con google nos deja refinar la búsqueda apenas un poquito digamos que se están buscando información acerca de la segunda |
|
guerra mundial y entonces dan con una búsqueda que no es lo que ustedes tenían en mente tienen que volver y volver a arrancar mientras que un chat le pueden decir no es una lo que está buscando es que tengo en mente una idea acerca de y entonces por supuesto que todo lo que tenga que ver con búsqueda generativa es más útil porque podemos conversar alrededor de la búsqueda eso quiere decir que los esquemas de SEO cambian mucho porque de entrada el SEO existe en en parte porque los motores de búsqueda necesitan un motor de búsqueda. Eso quiere decir que los esquemas de SEO cambian mucho, porque de entrada el SEO existe en parte porque los motores de búsqueda necesitan entender bien |
|
qué hay en un website y entonces lo que hacíamos era tratar de darle un formato específico al website para que el motor de búsqueda lo pudiera indexar rápido. Pero cuando tenemos sistemas que entienden idioma, lenguaje, memes, bromas, chistes y cosas muy finas acerca de cómo se abre en inglés, en español, que entienden portuñol, no sé, no explico. |
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 38