Anthropic impulsa la autonomía de Claude: nuevo modo automático para riesgos y permite ejecutar tareas en el ordenador

|

Archivo - (Foto de ARCHIVO) October 1, 2025, West Java, Indonesia: In this photo illustration, the Claude AI logo is displayed on a smartphone with an Anthropic logo in the background.    Europa Press/Contacto/Algi Febri Sugita 01/10/2025


Anthropic ha lanzado un nuevo modo automático para Claude Code, un sistema que permite al modelo de inteligencia artificial (IA) decidir por sí mismo qué acciones son seguras y cuáles pueden ser peligrosas a la hora de ejecutar una tarea, de cara a mejorar la fluidez y evitar que los usuarios tengan que dar su consentimiento para cada acción en proyectos de mayor envergadura.



La compañía ha detallado como, actualmente, los permisos predeterminados en su herramienta Claude Code son "deliberadamente conservadores", es decir, que cada acción, escritura de archivo o comando requiere aprobación previa por parte de los usuarios.



Aunque es un sistema que apuesta por la seguridad, implica limitaciones a la hora de iniciar una tarea de mayor magnitud, ya que solicita aprobaciones humanas frecuentemente durante el proceso, frenando los avances en las tareas.



Para evitar las comprobaciones constantes, los desarrolladores también pueden optar por el comando '--dangerously-skip-permissions', que omite los permisos por completo. Sin embargo, esta opción implica enfrentarse a más peligros y sistemas impredecibles, y no debe utilizarse en entornos aislados.



Con la idea de buscar un equilibrio, permitiendo ejecutar tareas más largas con menos interrupciones pero manteniendo la seguridad, Anthropic ha introducido un nuevo modo automático como opción intermedia. Este modo permite que, antes de que Claude ejecute una acción, un clasificador la revise para detectar si se trata de una acción "potencialmente destructiva".



Así, como ha explicado en un comunicado, el clasificador analizará las acciones para identificar si se trata de opciones peligrosas como la eliminación masiva de archivos, la filtración de datos confidenciales o la ejecución de código malicioso.



Como resultado, permitirá que las tareas seguras se ejecuten automáticamente e impedirá que el modelo siga adelante con la tareas que impliquen riesgo, obligándolo a adoptar un enfoque distinto para ejecutar la acción. No obstante, si el modelo insiste en realizar acciones que se bloquean, se le solicitará al usuario que de su consentimiento.



Por tanto, el modo automático reduce el riesgo de omitir por completo los permisos predeterminados de Claude Code, aunque Anthropic ha recomendado su uso en entornos aislados porque no elimina las posibles complicaciones por completo.



Esto se debe a que el clasificador puede permitir algunas acciones de riesgo si no tiene el suficiente contexto o si la solicitud del usuario "es ambigua". De la misma forma, la compañía ha matizado que también puede bloquear ocasionalmente acciones inofensivas.



El nuevo modo automático para Claude Code está disponible como vista previa para investigación en el plan de suscripción Team, aunque también llegará a las opciones Enterprise y a los usuarios de la API en los próximos días. No obstante, no se trata de un producto finalizado y solo funciona con los modelos Claude Sonnet 4.6 y Opus 4.6.



CLAUDE REALIZA TAREAS DE FORMA AUTÓNOMA EN EL ORDENADOR


Además de todo ello, ahora los usuarios pueden habilitar Claude en su ordenador para que complete tareas de forma autónoma, a través de Claude Cowork y Claude Code. Así, se podrá asignar una tarea al modelo y este la ejecutará en el ordenador, con acceso a los archivos locales, conectores, complementos y aplicaciones. Una vez haya finalizado el trabajo, lo notificará a los usuarios.



Según ha explicado Anthropic en un comunicado, cuando Claude no tenga acceso a las herramientas necesarias, podrá navegar por la propia pantalla del ordenador para realizar la tarea en cuestión automáticamente.



Es decir, dispondrá de permisos para abrir archivos, usar el navegador y ejecutar herramientas de desarrollo "sin necesidad de configuración" y de forma autónoma, sin intervención del usuario.



Esta función ya está disponible en versión preliminar para usuarios de Claude Pro y Max. Además, funciona de forma coordinada con la función de Dispatch para asignar tareas a Claude desde el teléfono y que las ejecute en el ordenador.



Anthropic ha subrayado que esta capacidad se ha desarrollado con medidas de seguridad pensadas para minimizar el riesgo, incluyendo la inyección de código malicioso. Así, cuando Claude utilice el ordenador, el modo automático analizará si las acciones son peligrosas o no para detectar este tipo de actividad.





europapress