El artículo presenta una introducción a la metodología de aprendizaje profundo geométrico, que busca sistematizar este campo aplicando los principios del Programa de Erlangen de Felix Klein. El objetivo es derivar los diferentes sesgos inductivos y arquitecturas de red a partir de los principios de simetría e invariancia. Se centra en una clase grande de redes neuronales diseñadas para el análisis de conjuntos no estructurados, cuadrículas, grafos y variedades, mostrando cómo pueden entenderse de manera unificada como métodos que respetan la estructura y las simetrías de estos dominios.
El texto está dirigido a un público amplio de investigadores, profesionales y entusiastas del aprendizaje profundo.
Para los principiantes, ofrece una visión general y una introducción al aprendizaje profundo geométrico.Para los expertos, proporciona nuevas formas de derivar arquitecturas familiares a partir de principios básicos, así como conexiones sorprendentes.Para los profesionales, aporta nuevas ideas sobre cómo resolver problemas en sus respectivos campos.El artículo se centra en los fundamentos y espera que los conceptos clave que discute trasciendan sus realizaciones específicas. Se exponen los principios geométricos para explotar las regularidades que surgen de la baja dimensionalidad y estructura del mundo físico en tareas de aprendizaje de alta dimensión. También se analizan los sesgos inductivos mediante la regularidad de la función. El artículo también discute el problema de la maldición de la dimensionalidad en el aprendizaje de funciones genéricas.
Entre los temas abordados en el documento se incluyen:
Sistemas de aprendizaje profundo que aprovechan la geometría de baja dimensiónPrioridades geométricas como simetrías, representaciones e invarianciaIsomorfismos y automorfismosEstabilidad a la deformaciónSeparación de escalasEspacios métricosGrupos y sus acciones sobre los datosVariedades RiemannianasMedidores y hacesConvoluciones en diferentes dominiosModelos de aprendizaje profundo geométrico como las CNNs, GNNs y TransformadoresLos autores también destacan la importancia de la invariancia y la equivariancia en la construcción de modelos que sean estables ante las deformaciones del dominio.