Marco Rossi sobre la IA: "Hoy todos somos informáticos"
El abogado experto en inteligencia artificial habló sobre el impacto de esta tecnología en el presente y el futuro del trabajo, el derecho y la vida cotidiana.
Marco Rossi, abogado, funcionario judicial en la provincia de Tucumán y director del Laboratorio de Inteligencia Artificial, Innovación y Transformación Digital de la Facultad de Derecho, participó de una entrevista en Enterate Play 90.5 en la que analizó el avance vertiginoso de la inteligencia artificial (IA) en la vida cotidiana.
Durante la charla, Rossi explicó que la IA no es nueva, sino que convivimos con ella desde hace años a través de plataformas como Netflix, Spotify o Google, aunque el verdadero punto de inflexión llegó con la aparición de la inteligencia artificial generativa: "Lo que está revolucionando todo es la posibilidad de crear contenido nuevo con instrucciones simples. Es la primera vez que nos comunicamos con una computadora como si fuera un humano", destacó.
¿Hay que temerle a la inteligencia artificial?
Consultado sobre los temores que genera esta nueva tecnología, Rossi fue claro: "Sí, siempre hay que tener precaución. Como toda herramienta poderosa, depende de quién la use".
Según el abogado, más que el fin de profesiones, lo que se está viendo es un cambio de paradigma: "Estamos viviendo un cambio de era. Con estas herramientas podés aumentar tu productividad y hacer más cosas que antes. El problema es la velocidad con la que todo avanza. Las tareas repetitivas se automatizan, y eso implica la necesidad de reconvertirse".
Rossi también puso énfasis en cómo la IA ya está generando nuevas formas de empleo, especialmente en áreas como la creación de contenidos, redes sociales y programación: "Hoy ser influencer ya no es solo subir fotos; implica manejar algoritmos, datos, finanzas, moda, cultura... Es una ciencia nueva que recién estamos empezando a capitalizar".
¿Quién controla la IA?
Uno de los puntos más interesantes de la entrevista fue cuando Rossi explicó el funcionamiento de los sistemas como ChatGPT o Gemini: "Nada es gratuito. Estas plataformas te dan versiones básicas y versiones premium. Lo importante no es qué herramienta uses, sino cómo la usás", explicó.
Y agregó: "La clave está en entender cómo interactuar con la IA. Aprender a pedirle las cosas -lo que llamamos prompting- es fundamental. Hoy existen muchas marcas en el mercado: ChatGPT (de OpenAI), Gemini (de Google), Copilot (de Microsoft), Claude (de Anthropic), entre otras. Es como elegir un auto: no importa la marca, sino cómo lo manejás".
Finalmente, dejó una reflexión: "Hoy todos somos informáticos. Todos estamos interactuando con tecnologías que antes eran solo para expertos. Es hora de entenderlas, aprenderlas y usarlas para nuestro beneficio".
Uno de los primeros puntos que destacó fue la existencia de sesgos, particularmente los vinculados a la discriminación de género. Según explicó, estos sesgos no son propios de la inteligencia artificial, sino que surgen de los datos con los que fue entrenada y de las personas que la programan. "Tenemos que ser conscientes del sesgo. No se trata de una falla de la IA, sino de cómo replicamos nuestras propias limitaciones", señaló.
Luego, puso el foco en las denominadas "alucinaciones" de los modelos de lenguaje, es decir, cuando inventan información que suena convincente pero es falsa. "Este es el peligro que más preocupa cuando trabajás con información precisa. En el ámbito legal, por ejemplo, puede inventar jurisprudencia; en medicina, diagnósticos o tratamientos", advirtió. Para reducir este riesgo, recomendó segmentar el trabajo en microtareas, dar instrucciones precisas y cargar información de fuentes confiables en formatos como PDF. "Si vas a tratar una ley, indicá el artículo exacto. Que no se extienda, que trabaje con párrafos cortos y con información fiel."
Privacidad y el verdadero dilema de los datos
En relación con la seguridad informática, Rossi fue enfático: "Este es el verdadero tabú y el verdadero quilombo que se está armando con la IA generativa". Señaló que desde hace tiempo se vienen exponiendo datos personales sin demasiada conciencia, como escanear el DNI con apps como CamScanner o almacenar archivos en nubes gratuitas. "Le estamos introduciendo datos a unidades generativas sin saber quién las entrena ni a dónde va esa información."
Explicó que el problema no radica en que la IA recuerde lo que cada usuario le dice, sino en qué datos fueron utilizados para entrenar el modelo. "No es lo mismo entrenar que minar un dato", aclaró. En este sentido, mencionó que las versiones pagas o empresariales de algunos modelos permiten mayor control sobre qué se entrena y qué no, algo fundamental para preservar la privacidad.
Finalmente, abordó un aspecto menos debatido pero de alto impacto: los neuroderechos. "Hoy, lo único verdaderamente privado es lo que está en nuestro cerebro. Por eso es tan preocupante lo que puede pasar con el neuromarketing o los chips cerebrales. No se trata solo de ética profesional, sino de proteger lo más íntimo del ser humano."
En ese marco, planteó cómo cambió nuestra concepción de la privacidad: "Hoy no te parece raro que alguien te agregue a Instagram, pero hace 20 años, que alguien te espere a la salida del trabajo y te diga ‘¿Qué hacés?' sería inquietante. La IA nos está llevando a un nuevo capítulo de Black Mirror, pero ya no lo miramos: lo estamos protagonizando".