La inteligencia artificial ahora puede controlar completamente tu ordenador
Imagina darle a un chatbot la capacidad de controlar tu computadora, tal como un piloto automático controla un avión. Esto ya es posible. ¿Pero es seguro?
Claude 3, el chatbot de la compania Anthropic, se lanzó en toda Europa en mayo de este año y rápidamente causó sensación. Claude 3 ha demostrado superioridad sobre muchos otros modelos de IA con su capacidad para resumir trabajos científicos en segundos, realizar cálculos complejos y producir contenido bien escrito sin ningún tipo de esfuerzo.
Ahora la compañía ha presentado Claude 3.5 Sonnet, que amplía aún más las posibilidades de la inteligencia artificial, otorgando al bot un control total sobre las operaciones de la computadora. Si bien esto es sin duda un gran logro, también plantea serias cuestiones de seguridad.
Claude 3.5 Sonnet ya no es sólo una IA conversacional, se ha convertido en un asistente digital activo, capaz de controlar el teclado y el ratón, así como ejecutar aplicaciones directamente en el ordenador. A diferencia de otros chatbots, puede interactuar completamente con los programas instalados y realizar tareas complejas en su dispositivo.
"Estamos entrando en una era en la que los modelos de IA podrán utilizar todas las herramientas de las que dependen los humanos para realizar tareas", dijo el científico jefe de Anthropic Jared Kaplan en una entrevista a la revista Wired. En las pruebas, el chatbot demostró su versatilidad al planificar rutas de viaje a través de navegadores web, administrar eventos del calendario e incluso crear sitios web desde cero utilizando el programa Visual Studio Code.
Las habilidades de Claude 3.5 son impresionantes, pero no son perfectas. Las pruebas muestran que todavía tiene dificultades con algunas tareas, como la codificación, y a veces pasa por alto detalles importantes al organizar las tareas. TechCrunch informó que en un escenario que requería que el bot hiciera y cambiara reservas de aerolíneas, Claude completó menos de la mitad de las tareas asignadas, lo que demuestra que está lejos de estar libre de errores.
Pero, ¿deberíamos sentirnos cómodos dándole a la inteligencia artifical un control tan amplio? Si bien este no es el alcance total de las posibilidades, sí plantea preocupaciones legítimas sobre los riesgos de darle a un bot acceso ilimitado a nuestra vida digital.
El enfoque de Anthropic es cauteloso. "Permitir estos modelos de acceso a ordenadores modernos, más limitados y relativamente seguros es un paso proactivo. Esto nos da la posibilidad de identificar y resolver cualquier problema que surja mientras mejoramos gradualmente los protocolos de seguridad", asegura la empresa. Sin embargo, esta estrategia implica que los usuarios deben asumir algunos riesgos por sí mismos. ¿Están completamente informados sobre los peligros potenciales? Y si algo sale mal, ¿quién será el responsable: Anthropic, el usuario o ambos?