¿Cómo se creó DeepSeek? Un análisis de la historia del crecimiento de DeepSeek

¿Cómo se creó DeepSeek? Un análisis de la historia del crecimiento de DeepSeek

En el futuro, la innovación será cada vez más dura. Puede que ahora no sea fácil de entender, porque todo el grupo social necesita educarse con hechos. Cuando esta sociedad permita triunfar a las personas que innovan a fondo, la mentalidad colectiva cambiará. Sólo necesitamos un puñado de hechos y un proceso....

¡DeepSeek lo ha conseguido! OpenAI admite un error de código cerrado, la ventaja de la vanguardia se reduce

¡DeepSeek lo ha conseguido! OpenAI admite un error de código cerrado, la ventaja de la vanguardia se reduce

Después de que OpenAI lanzara el modelo o3-mini, su consejero delegado, Sam Altman; el director de investigación, Mark Chen; el director de producto, Kevin Weil; el vicepresidente de ingeniería, Srinivas Narayanan; la directora de investigación de API, Michelle Pokrass, y el director de investigación, Hongyu Ren, llevaron a cabo una sesión de preguntas y respuestas técnicas en línea en reddit, uno de los foros más completos del mundo. Los temas principales...

OpenAI o3-mini vs. DeepSeek-R1: ¿Quién es el rey de la nueva generación de modelos de IA?

OpenAI o3-mini vs. DeepSeek-R1: ¿Quién es el rey de la nueva generación de modelos de IA?

o3-mini está aquí, con el ímpetu de un aspirante El 31 de enero, OpenAI lanzó el nuevo modelo grande o3-mini y proporcionó algunas de sus funciones de forma gratuita a todos los usuarios de ChatGPT. Aunque hay un límite en el número de consultas, permite a los usuarios experimentar el último modelo comercial de OpenAI lo antes posible.....

¡Primer lanzamiento! ¡SiliconFlow X Huawei Cloud lanzan conjuntamente servicios de inferencia DeepSeek R1 & V3 basados en Ascend Cloud!

¡Primer lanzamiento! ¡SiliconFlow X Huawei Cloud lanzan conjuntamente servicios de inferencia DeepSeek R1 & V3 basados en Ascend Cloud!

DeepSeek-R1 y DeepSeek-V3 han causado sensación en todo el mundo desde su lanzamiento en código abierto. Son un regalo del equipo DeepSeek a toda la humanidad, y nos alegramos sinceramente de su éxito. Tras días de duro trabajo por parte de los equipos de Silicon Mobility y Huawei Cloud, hoy también ofrecemos a los usuarios chinos...

Comparación exhaustiva de los nuevos o3-mini y DeepSeek R1 de OpenAI

Comparación exhaustiva de los nuevos o3-mini y DeepSeek R1 de OpenAI

OpenAI ha lanzado su último modelo de inferencia, o3-mini, optimizado para campos como la ciencia, las matemáticas y la programación, que ofrece una respuesta más rápida, mayor precisión y menor coste. En comparación con su predecesor o1-mini, o3-mini ha mejorado significativamente sus capacidades de inferencia, especialmente en la resolución de problemas complejos. Los evaluadores prefieren las respuestas de o3-mini por 56%, y la tasa de error ha...

En el círculo de la IA, DeepSeek R1 ha superado con creces a o1 y Claude en las pruebas físicas, y hemos entrado en la edad de oro de la RL.

Ninguno de nosotros esperaba que así empezaría el año 2025 en el campo de la IA. ¡DeepSeek R1 es realmente sorprendente! Recientemente, el "misterioso poder oriental" DeepSeek ha estado "controlando duramente" Silicon Valley. Le pedí a R1 que explicara detalladamente el teorema de Pitágoras. Todo esto lo hizo la IA en menos de 30 segundos sin...

¡Última hora! OpenAI ha lanzado hoy 2 nuevos modelos de inferencia: o3-mini y o3-mini-high.

¡Última hora! OpenAI ha lanzado hoy 2 nuevos modelos de inferencia: o3-mini y o3-mini-high.

o3-mini y o3-mini (high) serán lanzados hoy. Los usuarios regulares también obtendrán o3-mini, y los usuarios plus podrán utilizar o3-mini (high). o3-mini (high) es unos 200 puntos superior a o1 en Codeforce, más rápido que o1, y rinde mejor en codificación y matemáticas, pero el coste sigue estando al nivel de o1-mini....

Altman: ¡Nos equivocamos con la IA de código abierto! DeepSeek ha hecho OpenAI menos ventajoso, y el próximo es GPT-5

Altman: ¡Nos equivocamos con la IA de código abierto! DeepSeek ha hecho OpenAI menos ventajoso, y el próximo es GPT-5

o3-mini llegó tarde por la noche, y OpenAI reveló por fin su última baza. Durante un Reddit AMA Q&A, Altman confesó profundamente que se había situado en el lado equivocado de la IA de código abierto. Dijo que la estrategia interna de código abierto se está considerando, y el modelo seguirá desarrollándose, pero...

Paper-DeepSeek-R1: Incentivar la capacidad de razonamiento en los LLM mediante el aprendizaje por refuerzo

Resumen En este artículo se presentan los modelos de razonamiento de primera generación de DeepSeek: DeepSeek-R1-Zero y DeepSeek-R1. DeepSeek-R1-Zero, entrenado mediante aprendizaje por refuerzo (RL) a gran escala sin ajuste fino supervisado (SFT), demuestra una notable capacidad de razonamiento. Gracias al RL, desarrolla de forma natural potentes comportamientos de razonamiento. Sin embargo, se enfrenta a problemas como la mala legibilidad y la mezcla de lenguajes. Para abordar estos problemas y mejorar el rendimiento del razonamiento, se desarrolló DeepSeek-R1,...