sábado 27 de julio 2024
Tendencias

El Uso de la Inteligencia Artificial entre los Chilenos: Datos y Desafíos

El Uso de la Inteligencia Artificial entre los Chilenos: Datos y Desafíos
Por Sala de redacción
mayo 18, 2024 - 22:38

Un estudio realizado por la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de los Andes tuvo como objetivo principal comprender los usos y la percepción de los chilenos sobre las herramientas de Inteligencia Artificial (IA). Reveló, entre otros datos destacados, que el 45% de los encuestados utiliza herramientas con IA en su entorno laboral o educativo, mientras que un 20% las emplea en relaciones interpersonales y un 15% en su vida diaria.

La encuesta se llevó a cabo con 1.416 personas mayores de 18 años en 196 comunas del país. Se indagó sobre el uso de diversas herramientas proporcionadas por la IA y el riesgo percibido en la vida cotidiana; el 32% lo consideró riesgoso, mientras que el 46% no lo ve así. Un reporte de la OCDE de noviembre de 2023 señala que el 50% de los adultos chilenos mira con desconfianza a la IA.

Desafíos de la IA y su regulación

La Dra. Loreto Bravo, directora del Instituto de Ciencia de Datos de la Universidad del Desarrollo (UDD), destaca que la IA abarca mucho más que herramientas generativas como ChatGPT. «La Inteligencia Artificial comprende todos los sistemas que aprenden de datos e intentan imitar al ser humano en tareas como percepción, aprendizaje y ejecución de acciones. Por lo tanto, regular la IA implica abordar todos estos aspectos».

Uno de los principales desafíos identificados es evitar la creación de brechas. Según la Dra. Bravo, el acceso y el dominio de la IA podrían aumentar las disparidades. «¿Cómo evitamos los sesgos que a menudo perpetúa la IA y nos mantenemos actualizados para seguir siendo relevantes en nuestros trabajos?», plantea.

Sin embargo, según un estudio del MIT, trabajar con IA puede aumentar la productividad en un 40% y la calidad de los resultados en un 20%.

Otro desafío importante es educar a la población sobre la IA. «¿Cómo educamos a las personas sobre lo que la IA puede hacer bien y lo que no? Por ejemplo, herramientas como ChatGPT operan en base a probabilidades, por lo que ofrecen información que ‘probablemente’ es correcta. Como humanos, debemos verificar su contenido y ajustarlo a nuestro contexto de trabajo», subraya la Dra. Bravo.

El estudio de la Universidad de los Andes revela que el 29% de los encuestados considera que se deben enseñar «técnicas de uso» de IA en colegios y universidades, el 25% opina que deben abordarse «contenidos y proyecciones», y solo el 24% menciona la «ética».

Carla Vairetti, académica de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de los Andes e investigadora del Instituto de Sistemas Complejos de Ingeniería, destaca el potencial de la IA como herramienta de aprendizaje y apoyo para cualquier profesional. No obstante, señala que también puede impactar negativamente en los procesos de enseñanza, especialmente entre los jóvenes. «La IA puede emular procesos mentales clave para el desarrollo autónomo de los alumnos, pero también representa una amenaza si tecnologías como la IA recreativa o la realidad virtual causan aislamiento o distracción».

Asimismo, advierte sobre la desigualdad entre y dentro de los países, así como sobre la usurpación de identidad y las estafas. «Países como EE.UU. y China están invirtiendo fuertemente en estas tecnologías y pueden afectar a sectores industriales nacionales como el retail. La falta de formación en tecnologías en escuelas de escasos recursos podría aumentar aún más la desigualdad en Chile».

Valeria Herskovic, académica del Departamento de Ciencia de la Computación de la Universidad Católica e investigadora del Centro Nacional de Inteligencia Artificial, plantea la necesidad de regular la IA en los lugares de trabajo. «Aún no está claro. Probablemente cada empresa deba definir los usos aceptables e inaceptables de la IA. Por ejemplo, en ciertos contextos, usar ChatGPT para revisar la redacción o la ortografía de un documento puede ser aceptable, pero generar el documento podría ser inaceptable».

Al igual que la Dra. Bravo, Herskovic enfatiza la importancia de que el contenido generado por la IA sea revisado por seres humanos, ya que herramientas como ChatGPT pueden producir errores. «Los lugares de trabajo deberían regular qué información pueden compartir sus empleados con herramientas de IA, ya que esa información podría ser utilizada para seguir entrenando los algoritmos, lo que podría resultar en la divulgación de información confidencial».