El vicepresidente de investigación de OpenAI critica a Anthropic: ¿Por qué solo ustedes pueden crear IA?

BlockBeatNews

Según la monitorización de Beating, el vicepresidente de investigación de OpenAI (enfoque en entrenamiento) Aidan Clark publicó en X que escuchó repetidamente a colegas de Anthropic expresar una opinión: solo Anthropic tiene la cualificación para ser confiable en la creación de IA. Él no está de acuerdo con esto, piensa que es bueno que varias empresas trabajen juntas en la creación de AGI (inteligencia artificial general), y que trabajar en solitario casi nunca lleva a la ruta correcta.

Clark añadió en su respuesta que estas son solo rumores que ha escuchado, y si alguien puede demostrar que son malentendidos, él estaría encantado. También mencionó que sus colegas en OpenAI no evitan reconocer públicamente el trabajo de Anthropic.

La publicación provocó discusiones entre varios empleados de Anthropic. Un usuario que afirmó trabajar en Anthropic respondió que eligió confiar en esa empresa porque la considera más confiable, pero que eso no significa que solo ellos puedan ser confiables para crear IA. Otro usuario, Rohan Seth, negó directamente: «Esa no es nuestra opinión», y eliminó su primer comentario con tono demasiado agresivo. Steven Adler hizo una distinción: lo que Clark escuchó quizás no fue «Anthropic piensa que nadie más merece crear IA», sino «Anthropic no confía en OpenAI como única opción», que son cosas diferentes. Clark admitió que esa distinción tiene sentido, y que lo que escuchó podría ser que lo que se dijo fue la segunda opción en lugar de la primera, pero añadió: «Incluso si solo se refiere a OpenAI, eso no es nada bueno».

Luego, Clark moderó su postura, diciendo que quizás no hay muchas personas que piensen de forma extrema que «solo Anthropic puede crear IA», pero en su versión más suave, cree que esa idea existe en cierta medida. Elogió la actitud de respuesta de Anthropic, tanto en comentarios públicos como en contactos privados, que considera muy amistosa.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

NVIDIA invierte en la startup sueca de legaltech de IA Legora; Jude Law es embajador global de la marca

NVIDIA realiza una ampliación de inversión Serie D en Legora por 50 millones de dólares, de modo que la captación total de Legora alcance 600 millones de dólares y una valoración de 5.600 millones de dólares; participan Atlassian, Adams Street Partners e Insight Partners. Legora se centra en la legaltech de IA y ofrece herramientas como revisiones automatizadas, análisis de contratos e investigación jurídica; su ARR supera 100 millones de dólares y el número de empleados pasa de 40 a 400. Jude Law se convierte en el embajador global de la marca, con el eslogan publicitario “Law just got more attractive”.

ChainNewsAbmediaHace5m

Predicciones de IA para 2027: 65% completado, la aceleración del desarrollo de software se queda en 17%, según el cofundador de Google Docs

Según Steve Newman, cofundador y presidente de Google Docs en el Golden Gate Institute, la IA ha completado aproximadamente el 65% de las predicciones cuantificadas descritas en el pronóstico del escenario 2027 publicado el año pasado. Sin embargo, la métrica más crítica—la aceleración de su propio software por parte de la IA

GateNewsHace37m

Claude/GPT ¿demasiado complacientes? Un fragmento de prompt en Claude.md hace que la IA entregue respuestas firmes y precisas

Este artículo presenta un conjunto de instrucciones que se puede insertar en Claude.md / Agents.md. Convierte la IA de un asistente amable y elocuente en un consultor directo, mediante cuatro capas de ajuste: configuración de la identidad, verificación de hechos, liberación del tono y exención de corrección política. Exige que sea completo, con verificación paso a paso, y que nunca alucine; cuando sea necesario, incluso desafíe. También explica el momento de la carga, los riesgos y los escenarios de uso (investigación, redacción, juicios técnicos, debates académicos), y que no es adecuado para atención al cliente, educación ni asesoría médica. La fuente original del texto es ABMedia.

ChainNewsAbmediahace1h

OpenAI presenta ChatGPT Futures: 26 estudiantes de la primera promoción reciben una beca de 10.000 dólares, en más de 20 universidades

OpenAI publica la primera clase de ChatGPT Futures de 2026: 26 estudiantes en curso de más de 20 de las principales universidades, con una beca de 10.000 USD para cada uno y acceso a modelos de vanguardia. Estos estudiantes comenzaron sus estudios en otoño de 2022, y crecieron junto con ChatGPT; sus líneas de investigación abarcan la cartografía de objetos espaciales, la detección de supervivientes de desastres, la preservación de lenguas en peligro y el cuidado de la salud, con el objetivo de resolver necesidades humanas concretas mediante la IA y conectar las bases para la infraestructura de los creadores de la nueva generación.

ChainNewsAbmediahace1h

FLock.io facilita la colaboración de investigación entre el Centro de IA de Sarawak y la Universidad de Cambridge esta semana

Según Foresight News, FLock.io facilitó esta semana una nueva colaboración de investigación entre el Centro de Investigación de Inteligencia Artificial de Sarawak (SAIC) de Malasia y la Universidad de Cambridge. La asociación ampliará la cooperación desde la infraestructura técnica hasta la investigación económica, el diseño de políticas y

GateNewshace1h

Apple resuelve una demanda colectiva de consumidores por 250 millones de dólares; cada persona puede recibir hasta 95 dólares en compensación

Apple acuerda resolver las acusaciones de anuncios de IA engañosos por 250 millones de dólares. Si el tribunal lo aprueba, durante el periodo en EE. UU. los consumidores estadounidenses que compren iPhones específicos podrán recibir hasta 95 dólares de compensación por cada unidad, incluidos iPhone 16, 16 Plus, 16 Pro, 16 Pro Max y iPhone 15 Pro/Pro Max. Los demandantes afirman que la publicidad convirtió a Siri en un avance de la IA, pero que las funciones reales no cumplieron lo prometido; Apple sostiene que las funciones se lanzaron por fases, que ya entregó varias funciones y que no hubo declaraciones inexactas.

ChainNewsAbmediahace1h
Comentar
0/400
Sin comentarios