La IA ahora puede usar computadoras: ¿como nosotros?

La IA ahora puede usar computadoras: ¿como nosotros?

TECNOLOGÍA. El lanzamiento de Claude marca el comienzo de lo que se denomina como la “era de los agentes” en IA. TECNOLOGÍA. El lanzamiento de Claude marca el comienzo de lo que se denomina como la “era de los agentes” en IA. FOTO/20MINUTOS.ES.

Por Alejandro Urueña

Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial.

Por María S. Taboada

Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.  

“La era de los agentes”

El lanzamiento de Claude (presentamos el uso de la computadora, un nuevo Sonnet Claude 3.5 y Claude 3.5 Haiku), que incluye dos modelos destacados de Anthropic: Sonnet y Haiku, marca el comienzo de lo que se nombra como la “era de los agentes” en inteligencia artificial. Con esa frase se pretende significar que estos algoritmos no solo pueden procesar y generar texto, sino que están capacitados para actuar “como humanos” – reza la publicidad de su desarrolladora, Anthropic. Claude3.5 Sonnet -señala- ha aprendido a usar computadoras, a moverse y hacer click en botones y manejar aplicaciones, a realizar diversas tareas repetitivas e incluso a crear programas y hacer investigaciones.

Anthropic, fundada por ex-empleados de OpenAI, ha concentrado sus esfuerzos en desarrollar sistemas de IA que estima como seguros y éticos. Basado en un modelo de lenguaje grande (LLM), Claude 3.5 Sonnet tiene aparentemente la capacidad de ejecutar acciones y usar computadoras como un usuario humano.

De demiurgos

El discurso publicitario de la empresa destaca que esta “funcionalidad única” de “Uso de la Computadora” convierte a Claude en uno de los primeros agentes autónomos que colabora activamente en “tareas complejas”, representando un nuevo tipo de IA que no solo asiste, sino que trabaja en conjunto con las personas. La “era de los agentes” inauguraría una redefinición de la relación humano-máquina, haciendo que la tecnología pase de ser una herramienta a un colaborador “proactivo” en la productividad y ¿con la creatividad, racionalidad, discernimiento de un humano?

Conviene destacar que el modelo se encuentra en período experimental y que al presente tiene limitaciones y comete errores básicos que difícilmente un humano realizaría: no puede arrastrar textos, ni hacer zoom, puede detener arbitrariamente una grabación con riesgo de pérdida del trabajo, etc. En rigor, este asistente tecnológico es una herramienta y no un agente. Puede usar computadoras en base a programaciones específica que se centran fundamentalmente en tareas repetitivas (las que solemos llamar, precisamente, “automatizadas”). El propósito es que “tome piezas de software preexistente y simplemente las use como lo haría una persona”. https://www.anthropic.com/news/developing-computer-use

El algoritmo se basa en el concepto de que “el manejo de computadoras implica capacidad de ver e interpretar imágenes (de la pc) y razonar sobre cómo y cuándo realizar operaciones específicas”. La desarrolladora “capacita a Claude para interpretar lo que sucede en la pantalla y usar las herramientas de software disponibles para realizar tareas”. Es evidente que, más allá de las estrategias discursivas de “humanización, se trata de un algoritmo que hace aquello para lo que fue entrenado pero carece de razonamiento humano. De hecho, si así fuera, no requeriría ser entrenado. Y no cometería, de entrada, los errores que la misma empresa reconoce. La fase beta en la que se encuentra al presente pone el dispositivo al alcance de desarrolladores para sumar datos y procesamientos que alimenten el algoritmo y subsanen sus actuales y posibles yerros irracionales.

La IA ahora puede usar computadoras: ¿como nosotros?

De artefactos

Lo que al presente puede hacer Claude son las tareas de un asistente que trabaja por entrenamiento sin necesidad de operaciones que requieran desafíos y soluciones pragmáticas -basadas en la experiencia- ni desafíos intelectuales. Nos referimos a tareas tales como mover el cursor, hacer clic, escribir y editar texto (siguiendo los modelos de procesamiento del lenguaje), navegar en internet, abrir y cerrar programas, e incluso copiar y pegar información entre aplicaciones. Todas ellas comportan avances ya logrados a nivel de la IA, que Anthropic ha sabido articular y potenciar para gestar una herramienta que pueda realizar acciones que no tienen implicancias intelectuales pero que sí prácticas: dejar tiempo para las operaciones que hasta ahora solo los humanos pueden realizar. En este sentido Claude 3.5 implica un paso adelante para incrementar la potencialidad cualitativa del trabajo humano porque permite delegar tareas rutinarias que, aún así, requieren de monitoreo.

Es una máquina que ayuda a que otras máquinas hagan para facilitar e incrementar nuestra productividad. Otro gran aporte tecnológico para la cooperación humana. Pero que quede claro: no es un agente. Ser un agente implica autodeterminación cognitiva, conciencia de la relación hacer-pensar-sentir. El no tener clara esta dimensión del concepto, más allá del mesianismo discursivo de los creadores, puede implicar grandes amenazas que lejos de facilitar la productividad, la pongan en riesgo.

Discursos mesiánicos

Estamos ya habituados a las estrategias discursivas de “humanización” de todo nuevo producto tecnológico, a su con-fusión con el homo sapiens y a la mitigación de sus implicancias y consecuencias. Por eso es tan importante educar, aprender a leer e interpretar lo implícito de las apologías digitales. Hay muchas cosas que no se dicen y es urgente poner las cosas/las tecnologías en su lugar.

Sin menoscabar el paso adelante de Claude 3.5, es necesario también visualizar sus efectos en el mercado laboral. Esta tecnología permitirá acortar los tiempos y la efectividad -debidamente monitorizada- de las algunas tareas que muchos agentes realizan al presente como parte de su trabajo. Habrá entonces que pensar en las posibilidades de una nueva formación profesional de esos agentes, ya sea para la necesaria supervisión de los procesos y resultados del algoritmo, o para el desarrollo de otras tareas creativas. Una vez más, la educación es la encrucijada.

No olvidemos además que se trata de algoritmos que no piensan, ni valoran información ni la cotejan con la experiencia del mundo. Carecen de subjetividad y de empatía, por lo que actúan por mandato de entrenamiento y datos y -como se insiste cada vez más en este campo- pueden reproducir, multiplicar y difundir sesgos de todo tipo.

La nueva tecnología de Anthropic facilitará y potenciará el trabajo humano en varios campos de su multidimensionalidad. Siempre y cuando seamos conscientes de que se trata de tecnología, de herramientas “para” y no de demiurgos que vienen a definir nuestro mundo, nuestro futuro y a definirnos.

Comentarios