AI Safety Initiative
@ UC Chile
La primera iniciativa estudiantil de Seguridad de la Inteligencia Artificial en Chile.
A medida que los modelos de inteligencia artificial avanzan en capacidades1, esperamos que tengan un impacto cada vez más profundo en nuestra sociedad.2 Es esencial que este impacto sea positivo, y que las decisiones tomadas por estos sistemas sean transparentes, confiables y responsables ante las personas afectadas por ellos.3
Creemos que reducir los riesgos asociados a modelos avanzados de IA es uno de los desafíos más importantes de nuestro tiempo.4 También creemos que es un problema abierto y apasionante5, con amplias oportunidades para que más investigadores avancen en este campo.6
La misión de AISUC es apoyar a estudiantes a entrar a este campo y a realizar investigaciones sobre este tema.
Programa AI Safety Fundamentals
El primer programa de Seguridad en IA en Chile.
Basado en el currículum de Richard Ngo de OpenAI e inspirado en los programas en Harvard, Stanford y MIT.
7 semanas de teoría
4 semanas de práctica
+ charlas y eventos durante el semestre
Postulaciones hasta el domingo 10 de septiembre.
Abierto a estudiantes de la UC y de la UCh.
Contenidos
Cada semana se centra en distintas áreas dentro de la seguridad en inteligencia artificial. Desde la introducción a conceptos básicos de machine learning hasta conceptos avanzados de interpretabilidad de modelos, pasando por temas como técnicas adversariales, gobernanza y supervisión a escala.
Semana 0: Introduction to Machine Learning
Esta semana ofrece una introducción a las herramientas fundamentales para entrenar modelos de IA mediante machine learning: las redes neuronales, el descenso de gradiente y la retropropagación. Asimismo, se introducen los tipos de tareas para los cuales se puede entrenar a un modelo de IA: aprendizaje supervisado, autosupervisado, y de refuerzo.