Contenido del artículo
La victoria parcial de Anthropic
Recientemente, la empresa Anthropic, responsable del chatbot Claude, recibió un fallo favorable en un tribunal de Estados Unidos. Una jueza federal decidió desestimar la solicitud de varias editoriales musicales, incluyendo Universal Music Group, que intentaban bloquear provisionalmente el uso de letras protegidas en el entrenamiento de sus modelos de IA.
El origen del caso
En octubre de 2023, varias discográficas, incluida Concord y ABKCO Music & Records, llevaron a Anthropic a los tribunales, alegando que la compañía había utilizado letras con derechos de autor para entrenar a Claude, permitiendo que el chatbot generara respuestas que contenían fragmentos de esas obras.
La jueza dice ‘no’ a la moción
La jueza Eumi Lee desestimó la solicitud de medida cautelar de las discográficas, señalando que no demostraron un daño irreparable ni cómo el uso de las letras afectaba a su reputación o al mercado de licencias, además de considerar que la solicitud era demasiado ambigua.
Claude ya no escupe letras de canciones
A partir de este fallo, Claude no repetirá letras de canciones con derechos de autor. En su lugar, ofrecerá información sobre el álbum, el artista y otros datos relevantes. Esto es resultado de un compromiso entre Anthropic y las discográficas para implementar filtros que limiten el uso no autorizado de las letras en el futuro.
No está todo dicho
A pesar de la victoria parcial, la disputa legal continúa. Ambos lados siguen peleando por sus respectivas posiciones, mientras las discográficas intentan proteger a los artistas, y Anthropic defiende su modelo de entrenamiento basándose en la práctica del uso legítimo.