Cargando...

Dolar 6.96Bs / USDT 6.96Bs

Anthropic usará las conversaciones con su IA Claude para entrenar sus modelos

La empresa de inteligencia artificial, Anthropic, ha actualizado sus términos de servicio, permitiéndole utilizar las conversaciones de los usuarios con su chatbot Claude para el entrenamiento de sus modelos. La medida, que los usuarios pueden desactivar, también extiende el período de retención de datos a cinco años.
Internet

Actualización de políticas de uso

La compañía de inteligencia artificial Anthropic anunció una actualización en sus políticas de uso que le permitirá utilizar las conversaciones de los usuarios con su asistente Claude como material para entrenar y mejorar sus modelos. Los cambios, que entrarán en vigor a finales de septiembre, también establecen que la empresa podrá conservar los datos de los usuarios por un período de hasta cinco años.

Al acceder a la aplicación o al sitio web de Claude, los usuarios encontrarán una notificación sobre los nuevos Términos del Consumidor. Dicha notificación incluye una opción para “ayudar a mejorar Claude”, la cual se encuentra activada por defecto. Al aceptarla, el usuario autoriza el uso de sus conversaciones y sesiones de código para el entrenamiento de los modelos de Anthropic.

Los usuarios tienen la posibilidad de desactivar esta función en la ventana de notificación inicial o, posteriormente, a través de la configuración de privacidad de su cuenta.

Excepciones y control del usuario

Incluso si un usuario decide no participar en el entrenamiento del modelo, Anthropic se reserva el derecho de usar las interacciones en circunstancias específicas. Según los nuevos términos, la compañía podrá analizar conversaciones que sean marcadas para revisión de seguridad, con el fin de detectar contenido dañino, hacer cumplir sus políticas o avanzar en la investigación de seguridad de la IA. Del mismo modo, se podrán utilizar los materiales que los usuarios reporten explícitamente a través de los mecanismos de retroalimentación.

Para evitar que los chats sean utilizados, los usuarios deben acceder a su perfil, seleccionar la sección "Privacidad" y desactivar la opción "Ayudar a mejorar Claude". Adicionalmente, es posible deshabilitar los metadatos de ubicación para mayor control sobre la información compartida.

Contexto de seguridad y retención de datos

Junto con el uso de datos para entrenamiento, la política de retención de información ha sido modificada. Anthropic argumenta que, para mejorar las protecciones de seguridad, podrá retener las interacciones de los usuarios con sus sistemas por un período de hasta cinco años.

Este anuncio se produce un día después de que la empresa revelara que un actor malicioso utilizó Claude en varios intentos de ciberataques y estafas. Según un informe de la compañía, un individuo usó el asistente de código de Claude para planificar una operación de ransomware dirigida a 17 empresas, definiendo estrategias de extracción de datos y redactando notas de rescate. Anthropic afirmó haber bloqueado las cuentas involucradas e implementado actualizaciones para mitigar futuros intentos.

TE PUEDE GUSTAR