Inicio Tecnología Los usuarios de antrópico enfrentan una nueva opción: optue por no participar...

Los usuarios de antrópico enfrentan una nueva opción: optue por no participar o compartir sus datos para la capacitación de IA

33
0

Anthrope está haciendo algunos grandes cambios en la forma en que maneja los datos del usuario, lo que requiere que todos los usuarios de Claude decidan antes del 28 de septiembre si desean que sus conversaciones se usen para capacitar a los modelos AI. Mientras que la compañía nos dirigió a su blog En los cambios de política cuando se le preguntó sobre lo que provocó el movimiento, hemos formado algunas teorías propias.

Pero primero, lo que está cambiando: Anteriormente, Anthrope no usaba datos de chat de consumo para la capacitación de modelos. Ahora, la compañía quiere capacitar a sus sistemas de IA en conversaciones de usuarios y sesiones de codificación, y dijo que está extendiendo la retención de datos a cinco años para aquellos que no optan por no participar.

Esa es una actualización masiva. Anteriormente, a los usuarios de los productos de consumo de Anthrope se les dijo que sus indicaciones y salidas de conversación se eliminarían automáticamente de la parte trasera de Anthrope dentro de los 30 días «a menos que se requiera authorized o solicitada para mantenerlas más largas» o su aporte se marcó como violar sus políticas, en cuyo caso las entradas y salidas de un usuario podrían ser retenidos por hasta dos años.

Por el consumidor, nos referimos a que las nuevas políticas se apliquen a los usuarios de Claude Free, Professional y Max, incluidos aquellos que usan el código Claude. Los clientes comerciales que utilizan Claude Gov, Claude for Work, Claude for Training o API Entry no se verán afectados, que es cómo OpenAI protege de manera related a los clientes empresariales de las políticas de capacitación en datos.

Entonces, ¿por qué está sucediendo esto? En esa publicación sobre la actualización, Anthrope enmarca los cambios en torno a la elección del usuario, diciendo que al no optar por no participar, los usuarios «nos ayudarán a mejorar la seguridad del modelo, haciendo que nuestros sistemas para detectar contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas». Los usuarios «también ayudarán a los modelos futuros de Claude a mejorar las habilidades como la codificación, el análisis y el razonamiento, lo que, en última instancia, lo que lleva a mejores modelos para todos los usuarios».

En resumen, ayúdanos a ayudarte. Pero la verdad completa es probablemente un poco menos desinteresada.

Al igual que cualquier otra compañía de modelos de idiomas grandes, Anthrope necesita datos más de lo que necesita que las personas tengan sentimientos confusos sobre su marca. Los modelos de IA de capacitación requieren grandes cantidades de datos de conversación de alta calidad, y acceder a millones de interacciones de Claude debería proporcionar exactamente el tipo de contenido del mundo actual que puede mejorar el posicionamiento competitivo de Anthrope contra rivales como OpenAI y Google.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Más allá de las presiones competitivas del desarrollo de la IA, los cambios también parecen reflejar cambios más amplios en la industria en las políticas de datos, ya que compañías como Anthrope y OpenAI enfrentan un escrutinio creciente sobre sus prácticas de retención de datos. Operai, por ejemplo, está luchando actualmente en una orden judicial que obliga a la compañía a retener todas las conversaciones de chatgpt de consumidores indefinidamente, incluidos los chats eliminados, debido a una demanda presentada por el New York Instances y otros editores.

En junio, el COO OPERAI Brad Lightcap llamó a esto «un demanda de barrido e innecesaria«Ese» en conflicto fundamentalmente con los compromisos de privacidad que hemos hecho a nuestros usuarios «. La orden judicial afecta a los usuarios de ChatGPT gratuito, plus, Professional y del equipo, aunque los clientes empresariales y aquellos con cero acuerdos de retención de datos aún están protegidos.

Lo alarmante es cuánta confusión están creando todas estas políticas de uso cambiantes para los usuarios, muchos de los cuales siguen siendo ajenos.

Para ser justos, todo se mueve rápidamente ahora, por lo que a medida que cambia la tecnología, las políticas de privacidad están obligadas a cambiar. Pero muchos de estos cambios son bastante radicales y se mencionan solo fugazmente en medio de las otras noticias de las compañías. (No pensaría que los cambios en la política del martes para los usuarios antrópicos fueron una gran noticia basada en dónde la compañía colocó esta actualización en su página de prensa).

Créditos de imagen:Antrópico

Pero muchos usuarios no se dan cuenta de que las pautas a las que han acordado han cambiado porque el diseño prácticamente lo garantiza. La mayoría de los usuarios de ChatGPT siguen haciendo clic en «Eliminar» alternas que técnicamente no eliminan nada. Mientras tanto, la implementación de Anthrope de su nueva política sigue un patrón acquainted.

¿Cómo es eso? Los nuevos usuarios elegirán su preferencia durante el registro, pero los usuarios existentes enfrentan una ventana emergente con «actualizaciones de términos y políticas del consumidor» en texto grande y un botón prominente de «aceptar» negro con un interruptor de alternancia mucho más pequeño para los permisos de capacitación a continuación en una impresión más pequeña, y configurar automáticamente «On».
Como se observó más temprano Hoy, por el borde, el diseño plantea preocupaciones de que los usuarios podrían hacer clic rápidamente en «aceptar» sin darse cuenta de que están de acuerdo en compartir datos.

Mientras tanto, las apuestas para la conciencia del usuario no podrían ser más altas. Los expertos en privacidad han advertido durante mucho tiempo que la complejidad que rodea la IA hace que el consentimiento significativo del usuario sea casi inalcanzable. Según la administración Biden, la Comisión Federal de Comercio incluso intervino, advertencia que las compañías de IA se arriesgan a la acción de aplicación de la ley si participan en «cambiar subrepticiamente sus términos de servicio o política de privacidad, o enterrar una divulgación detrás de los hipervínculos, en la legalidad o en la letra pequeña».

Si la comisión, ahora opera con solo tres De sus cinco comisionados, todavía tiene su ojo en estas prácticas hoy es una pregunta abierta, una que hemos presentado directamente a la FTC.

avots

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí