Tras el caso del abogado sancionado, ponen el foco en los límites de la inteligencia artificial

0

La profesora e investigadora de la Facultad de Informática de la Universidad Nacional del Comahue (UNCo), Laura Cecchi, especialista en Inteligencia Artificial, advirtió sobre los riesgos del uso indiscriminado de estas herramientas y remarcó la necesidad de que toda decisión importante tenga siempre supervisión humana.

La especialista habló en el programa Mañanas en Red a partir del reciente caso de un abogado que fue sancionado por presentar fallos judiciales inexistentes generados por inteligencia artificial, una situación que reabrió el debate sobre los límites y responsabilidades en el uso de estas tecnologías.

Cecchi explicó que, aunque la inteligencia artificial parece una herramienta nueva para gran parte de la sociedad, su desarrollo lleva décadas. Sin embargo, sostuvo que la irrupción de plataformas conversacionales como ChatGPT hizo que su uso se masificara y llegara al alcance de cualquier persona.

“Antes ya usábamos herramientas con inteligencia artificial, pero no lo teníamos tan presente. Hoy está mucho más al alcance de todos y eso hizo que su utilización sea cotidiana”, señaló.

En ese contexto, remarcó que uno de los principales problemas es que muchas personas utilizan estas herramientas sin formación previa y sin conocer sus limitaciones.

Entre los riesgos más frecuentes, explicó, aparecen las denominadas “alucinaciones”, respuestas incorrectas o inventadas que el sistema presenta con total seguridad y que pueden ser tomadas como verdaderas.

Además, indicó que estos errores muchas veces están vinculados a los datos con los que fueron entrenados los modelos, que pueden contener fallas o reproducir sesgos sociales.

La investigadora también diferenció entre el uso profesional y el uso cotidiano de la inteligencia artificial. Sobre este punto, advirtió que en ámbitos sensibles como la medicina, la justicia o la ingeniería, delegar decisiones en estos sistemas puede generar consecuencias graves.

“Siempre tiene que existir lo que llamamos humano en el ciclo. Se puede usar la herramienta, pero la decisión final y la auditoría tienen que pasar por una persona”, explicó.

También se refirió al uso doméstico de estas plataformas, como cuando una persona consulta un análisis médico o busca diagnósticos en un chat de inteligencia artificial.

“Si no tenemos conocimiento sobre un tema, es muy fácil creer cualquier respuesta que nos dé el sistema y eso puede ser un error serio”, sostuvo.

Frente a este escenario, Cecchi planteó que el primer paso es avanzar en la alfabetización tecnológica y aprender a usar estas herramientas de manera responsable.

“La inteligencia artificial llegó para quedarse. Lo importante es aprender a usarla de forma ética y entender sus riesgos”, afirmó.

En ese sentido, consideró clave incorporar esta formación en el ámbito educativo, tanto para docentes como para estudiantes, con el objetivo de construir un uso más consciente y responsable.

Sobre la regulación, la especialista sostuvo que es necesario avanzar en marcos legales que ordenen su aplicación según cada ámbito y nivel de riesgo.

“No se trata de prohibir la inteligencia artificial, sino de regular cómo se utiliza en cada dominio y dejar claro que la responsabilidad final siempre es humana”, concluyó.