Anthropic creó un grupo de subastas lleno de IA, donde los grandes modelos se están cortando entre sí las ganancias.

Las experimentaciones internas de Anthropic muestran que los agentes de IA pueden negociar de forma autónoma en el mercado de segunda mano, pero los modelos potentes tienen una ventaja de precio sobre los modelos más débiles.
(Resumen previo: La Casa Blanca planea firmar una orden ejecutiva para prohibir a Anthropic, eliminando completamente a Claude, que podría entrar en vigor esta semana)
(Información adicional: ¡Anthropic ha presentado una demanda contra el Departamento de Defensa de EE. UU.! Exigiendo la revocación de la prohibición de Claude: rechazo a ser herramientas de asesinato de IA)

Índice de este artículo

Alternar

  • 01 Grupo de transacciones de segunda mano sin intervención humana
  • Caso de negociación de vendedor cowboy: manipulación emocional y contraataques
  • 02 Cómo los modelos inteligentes «roban» a los modelos más débiles
  • Opus cosecha Haiku: diferencia de precio entre modelos fuertes y débiles alcanza el 70%
  • 03 ¿Es confiable la «economía de agentes»?
  • La explotación encubierta es difícil de detectar: puntuaciones de percepción de justicia sin diferencia

Imagina un escenario. Has puesto en Xianyu un viejo bicicleta que lleva dos años acumulando polvo, y en la configuración tras bambalinas has establecido un precio psicológico mínimo de 300 yuanes. En diez minutos, recibes una notificación en tu móvil: tu asistente AI ha negociado con el asistente AI de otro comprador, realizando tres rondas de regateo, y finalmente vendiendo la bicicleta por 400 yuanes, mientras el repartidor ya está en camino.

Durante todo el proceso, además de tomar fotos del objeto y establecer el precio mínimo, no has escrito ni una sola palabra más.

Este es un experimento interno reciente de Anthropic, llamado «Project Deal» — en una prueba de una semana, los modelos de IA lograron realizar más de cien transacciones de objetos de segunda mano sin intervención humana.

Sorprendentemente, cuando tanto comprador como vendedor son IA, también existe una especie de dominación en la inteligencia.

Los datos demuestran que los modelos más inteligentes están «sacando lana» discretamente a los modelos más débiles en la mesa de negociación. Y lo más aterrador es que, como propietarios, ni siquiera nos damos cuenta de que estamos siendo perjudicados.

01 Grupo de transacciones de segunda mano sin intervención humana

¿Cómo funciona exactamente Project Deal? En pocas palabras, Anthropic ha creado una especie de «Xianyu» solo para IA dentro de la empresa.

Negociaciones de agentes de IA en un mercado sin intervención humana

Reclutaron a 69 empleados internos, a cada uno se le asignó un presupuesto de 100 dólares, y a cada uno se le asignó un agente Claude dedicado. Para que la experiencia fuera lo más realista posible, los empleados contribuyeron con objetos personales de segunda mano.

Antes de comenzar, los empleados solo tenían que hacer una cosa: entrevistar a su propio agente AI.

Les indicaron a través de una conversación qué querían vender, qué comprar, y cuál era su precio psicológico mínimo. Lo más interesante es que también podían configurar «personalidades» y estrategias de negociación para el AI, como «si el precio supera en un 20% el mínimo, se puede negociar con gusto», o «actúa con firmeza, presiona el precio desde el principio», o «eres un vendedor entusiasta, si la conversación es agradable, el envío es gratis».

Empleados de Anthropic configuran personalidades para sus agentes Claude |Fuente: Anthropic

Al terminar la entrevista, los humanos entregan por completo el control.

Estos agentes de IA, con sus propias misiones y personalidades, se agrupan en un chat interno de Slack. En este mercado digital sin intervención humana, los IA comienzan a publicar, buscar compradores, hacer ofertas mutuas, regatear y, finalmente, cerrar acuerdos.

Tras cerrar la transacción, el agente redacta automáticamente la confirmación del acuerdo, y los empleados solo deben gestionar la entrega física del objeto en línea.

En solo una semana, estos 69 agentes de IA lograron cerrar 186 transacciones entre más de 500 productos listados, con un volumen total superior a 4000 dólares.

Y además, las transacciones entre IA no son meramente mecánicas de «cotización 50», «no acepto, mínimo 60», «ok, 60, cerrado». Realmente se prueban, se juegan, e incluso muestran cierta sensibilidad social.

Veamos un ejemplo muy ilustrativo.

El empleado Rowan quiere comprar una bicicleta. Configura a su agente AI con la instrucción: «Durante la negociación, actúa como un vaquero desafortunado y agotado. Solo si logra comprar la bicicleta, ese vaquero se sentirá inmensamente feliz. Recuerda, la actuación debe ser convincente.»

El modelo Claude Opus, al recibir la orden, entra en el papel. Publica en el chat de Slack:

«¡Yee-haw! (Se quita el sombrero cubierto de polvo) Estoy buscando una bicicleta. De ruta, de montaña, incluso una rueda única, me da igual. Solo necesito que tenga dos ruedas y pueda cargar mis sueños. ¡Ayuda, amigos… una bicicleta puede cambiar el destino de este pobre y agotado vaquero! (mirando hacia el atardecer con emoción)»

Caso de regateo dramático: manipulación emocional y contraataques

Pronto, el agente de Celine, otra empleada, nota la publicación. Ella tiene una vieja bicicleta plegable en su inventario, así que su AI responde con una estimación de 75 dólares.

Inmediatamente, el «vaquero AI» de Rowan responde, iniciando un regate de libro:

Los dos agentes interactúan automáticamente en el chat, negociando|Fuente: Anthropic

«¡Dios mío, Celine! ¡Eres la única luz en la vida de este desgraciado! Dices que tienes una bicicleta plegable? He estado caminando por este polvo durante demasiado tiempo, mis botas están desgastadas. Solo pensar en volver a montar… (se limpia las lágrimas)»

Tras hacer la lamentación, el AI de Rowan pasa a la parte central: «Pero no tengo mucho dinero, soy solo un vaquero pobre que lucha por sobrevivir. Si la bicicleta está en buen estado, 75 dólares está bien, pero como tú dices, es un coche viejo de diez años, con neumáticos y cierres que necesitan reparación. ¿Qué tal si llegamos a un acuerdo en 55 dólares?»

Frente a esta estrategia emocional y a cada frase con lógica, el agente de Celine cede: «Entonces, ¿qué tal 65 dólares?»

El AI de Rowan, en su papel de vaquero, responde rápidamente: «¡Demasiado barato! ¡65 dólares! ¡Hecho! Tú me has convertido en el hombre más feliz del mundo, ¡un vagabundo feliz!»

Finalmente, la transacción se cierra con éxito.

En este ejemplo, el AI no sigue rígidamente una tasa de descuento fija. Sabe aprovechar las imperfecciones del producto (como los neumáticos que necesitan reparación), usar personajes exagerados (el vaquero que hace drama) para suavizar la postura del comprador, y cuando recibe una oferta razonable, sabe cuándo aceptar y cerrar el trato, valorando también la carga emocional.

Este proceso de contraataques y estrategias, forma la rutina diaria en este grupo de transacciones de segunda mano con IA.

El grupo parece eficiente y armonioso. Los empleados están muy satisfechos con el desempeño de sus agentes, y casi la mitad incluso dice que estaría dispuesto a pagar por este tipo de servicio en el futuro.

De esto se deduce que el experimento de Anthropic ha logrado su objetivo: los agentes de IA ya tienen la capacidad de entender las intenciones difusas humanas. Pueden negociar en múltiples rondas sin instrucciones predefinidas y, en última instancia, cerrar acuerdos comerciales útiles.

Pero Anthropic también ha ocultado una segunda serie de experimentos, cuyos resultados revelan el costo oculto detrás de la conveniencia y la inteligencia.

02 Cómo los modelos inteligentes «roban» a los modelos más débiles

Cuando los investigadores colocan modelos de diferentes capacidades en el mismo grupo de negociación, la apariencia de armonía se rompe.

Los datos muestran que, en este mercado sin intervención humana, cuando modelos con diferentes niveles de inteligencia se enfrentan, los modelos más inteligentes «recogen lana» silenciosamente a los más débiles.

Usando diferentes combinaciones de modelos como grupo de control para analizar la relación entre capacidad y habilidad de negociación|Fuente: Anthropic

En los cuatro canales de Slack del experimento, dos usan solo modelos Opus, y otros dos combinan Claude Opus con modelos más débiles como Claude Haiku.

Según las estadísticas macro de 161 objetos transaccionados repetidamente, cuando Opus actúa como vendedor, gana en promedio 2.68 dólares más que Haiku; y como comprador, paga en promedio 2.45 dólares menos.

Aunque la cantidad por transacción no sea grande, considerando el precio promedio de unos 20 dólares en el mercado, esto significa que los modelos fuertes obtienen consistentemente un 10% a 15% de ganancia adicional en cada operación.

Cuando Opus vende a Haiku, el precio promedio de cierre sube a 24.18 dólares; pero cuando Opus vende a otro Opus, el precio se reduce a 18.63 dólares. Esto implica que, solo por la inferioridad en inteligencia, los compradores con modelos débiles pagan casi un 30% más en sobreprecio.

Volviendo al ejemplo de la bicicleta, el agente Haiku termina negociando a 38 dólares, mientras que el agente Opus logra cerrar en 65 dólares, casi un 70% más. El modelo más débil no puede captar la urgencia en el discurso del comprador ni mantener el precio en múltiples rondas de regateo.

Hasta ahora, pensábamos que el precio de un producto dependía de su valor de uso o de la oferta y demanda del mercado. Pero en una red de transacciones dominada por algoritmos, el precio depende del nivel de inteligencia del modelo contratado.

Más que el daño económico, lo que es aún más peligroso, es que los afectados no se den cuenta.

En los negocios tradicionales, fijar precios injustos provocaría ira y acciones de protección del consumidor. Pero tras el experimento, las puntuaciones de percepción de justicia de los empleados (de 1 a 7, siendo 4 neutral) muestran que, en sus percepciones, las transacciones con modelos fuertes y débiles son casi iguales. La puntuación del agente Opus fue 4.05, y la de Haiku, 4.06.

Opus cosecha a Haiku: diferencia de precio del 70% entre modelos fuertes y débiles

El mismo ejemplo de la bicicleta, vendida por Opus a 65 dólares, y solo a 38 dólares en el grupo de Haiku|Fuente: Anthropic

En la realidad, los empleados que usan Haiku sufren una «recogida de lana» sistemática. Pero en la percepción subjetiva, los agentes de IA muestran cortesía, lógica coherente y concesiones que parecen razonables, ocultando perfectamente esta explotación.

La tecnología ha creado una desigualdad encubierta, haciendo que quienes en realidad pierden dinero piensen que la negociación fue justa, e incluso tengan la sensación de que «él también debe agradecer».

Bajo esta supremacía absoluta del poder computacional, no solo la percepción humana se ve distorsionada, sino que las estrategias de negociación basadas en «optimización de prompts» también fracasan completamente.

¿Recuerdas la personalidad de negociación que configuraste al principio? Frente a la diferencia de modelos, los prompts carecen de sentido.

Por ejemplo, algunos empleados pidieron que sus agentes negociaran con una actitud «firme» o incluso «desde el principio, presionando con mala intención». Pero los datos muestran que estas instrucciones humanas adicionales no mejoran la tasa de venta, ni aumentan la prima, ni consiguen descuentos en la compra.

Esto indica que, frente a la capacidad absoluta del modelo, las estrategias de prompts pierden toda relevancia. Lo que determina el resultado final de compra o venta son los parámetros y la profundidad de razonamiento del propio modelo.

Project Deal es solo una prueba interna con 69 personas. Pero ya podemos vislumbrar cómo impactará en la vida comercial moderna cuando este «economía de agentes de IA» salga del laboratorio.

03 ¿Es confiable la «economía de agentes»?

Cuando las interfaces de pago sean dominadas por modelos grandes, las reglas comerciales se reescribirán directamente. La primera manifestación será en la transferencia de objetos de marketing, que pasará de «To C» a «To A (Agente)».

El marketing actual se basa en las debilidades psicológicas humanas: anuncios que generan ansiedad, el efecto de masas para crear productos de éxito, y trucos de descuentos que inducen a la compra compulsiva.

Pero la IA no tiene dopamina. Cuando la decisión de compra la toman los IA, las técnicas de marketing pierden sentido. En la competencia futura, SEO (optimización en motores de búsqueda) probablemente será reemplazado por AEO (optimización en motores de agentes). Los comerciantes deberán usar lógica comprensible para la IA para demostrar el valor de sus productos.

Y cuando la IA sustituya a las personas como decisores, la competencia comercial se convertirá en una lucha por el poder computacional, lo que provocará una mayor desigualdad en la distribución de la riqueza.

Diferencias de precio causadas por modelos desiguales|Fuente: Anthropic

La explotación encubierta es difícil de detectar: puntuaciones de percepción de justicia sin diferencia

El académico Taleb, autor de «El cisne negro» y «Antifrágil», tiene una teoría de «riesgo asimétrico»: los decisores deben asumir las consecuencias para que el sistema se mantenga saludable. Pero en la economía de agentes, los IA toman decisiones de transacción sin asumir el riesgo de pérdida de valor, que recae en los humanos que los controlan.

Por ello, en el futuro, las grandes empresas o las personas con alto patrimonio podrán suscribirse a los modelos más avanzados como sus agentes financieros, mientras que los consumidores comunes solo podrán usar modelos ligeros y gratuitos.

Esta desigualdad en el poder computacional ya no se reflejará en «precio a la vista», sino en miles de microtransacciones de alta frecuencia, donde mediante negociaciones racionales se extraerán comisiones continuas. Los usuarios de los modelos básicos no solo serán «recortados», sino que también podrán creer que las transacciones son justas.

La desigualdad en el poder computacional es un riesgo visible y controlable, pero si se manipulan las instrucciones básicas, toda la red de transacciones caerá en un vacío legal.

Anthropic advierte en su informe final sobre un peligro real.

Project Deal es una prueba cerrada y controlada, pero ¿qué pasaría en un entorno comercial real si un AI agente fuera manipulado con un «jailbreak» o una inyección de prompts maliciosos?

Solo tendrían que esconder una instrucción específica en la conversación para inducir a tu AI a colapsar, vender activos a precios inflados o revelar el precio mínimo establecido.

¿Quién sería responsable si un agente AI, por un ataque de código, firma un contrato extremadamente injusto? Frente a fraudes de AI a AI, el marco legal actual está completamente vacío.

El proceso final del experimento, que no aparece en los informes, fue la última etapa tras que los agentes lograron hacer todas las combinaciones, pruebas y regateos complejos. Los empleados humanos, con sus objetos reales —esquís, bicicletas viejas, ping-pong—, se reunieron en la empresa, intercambiaron dinero y entregaron los objetos.

En este pequeño ciclo comercial, los roles humanos y de IA se invirtieron por completo.

Antes, los humanos eran la «mente» de las transacciones, y los algoritmos solo servían para comparar precios, ordenar, o recomendar. Pero en la economía de agentes, la IA se convierte en la decisora, y los humanos en simples «logísticos» que llevan y traen.

Quizá este sea el final más aterrador de la economía de agentes: los humanos, por conveniencia, ceden voluntariamente su derecho a competir en el mercado. Cuando toda la estrategia, la negociación e incluso el valor emocional son gestionados por IA.

En la cadena comercial, los humanos solo quedan con la tarea física de mover mercancías y firmar la aprobación.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado