AI Safety Initiative
@ UC Chile

La primera iniciativa estudiantil de Seguridad de la Inteligencia Artificial en Chile.


A medida que los modelos de inteligencia artificial avanzan en capacidades1, esperamos que tengan un impacto cada vez más profundo en nuestra sociedad.2 Es esencial que este impacto sea positivo, y que las decisiones tomadas por estos sistemas sean transparentes, confiables y responsables ante las personas afectadas por ellos.3

Creemos que reducir los riesgos asociados a modelos avanzados de IA es uno de los desafíos más importantes de nuestro tiempo.4 También creemos que es un problema abierto y apasionante5, con amplias oportunidades para que más investigadores avancen en este campo.6

La misión de AISUC es apoyar a estudiantes a entrar a este campo y a realizar investigaciones sobre este tema.

Expresa interés en participar


Programa AI Safety Fundamentals

El primer programa de Seguridad en IA en Chile.

Basado en el currículum de Richard Ngo de OpenAI e inspirado en los programas en Harvard, Stanford y MIT.

7 semanas de teoría
4 semanas de práctica
+ charlas y eventos durante el semestre

Postulaciones hasta el domingo 10 de septiembre.
Abierto a estudiantes de la UC y de la UCh.

En base al programa creado por

BlueDot Impact

Contenidos

Cada semana se centra en distintas áreas dentro de la seguridad en inteligencia artificial. Desde la introducción a conceptos básicos de machine learning hasta conceptos avanzados de interpretabilidad de modelos, pasando por temas como técnicas adversariales, gobernanza y supervisión a escala.

Semana 0: Introduction to Machine Learning

Esta semana ofrece una introducción a las herramientas fundamentales para entrenar modelos de IA mediante machine learning: las redes neuronales, el descenso de gradiente y la retropropagación. Asimismo, se introducen los tipos de tareas para los cuales se puede entrenar a un modelo de IA: aprendizaje supervisado, autosupervisado, y de refuerzo.

Mostrar contenidos
Ver más detalles

Preguntas frecuentes