Burgos

Ayudando a entrenar a la I.A. de META

El profesor Pedro Luis Sánchez Ortega, del grupo de investigación DINper, Diseño Inclusivo Personalizado, presenta el día 30 de abril de 2024 en el foro HUBERS: el futuro de la I.A. la charla titulada “Ayudando a entrenar a la I.A. de META” dentro de la sección Burgos Corazón Industrial del Norte.

HUBERS es un evento mensual, no lucrativo, que se celebra en la ciudad de Burgos. Desde su inicio en 2013, este foro abierto tiene como principal objetivo conectar personas y sumar ideas. Su creación responde a la necesidad de impulsar la divulgación de ideas innovadoras y servir como un centro de debate enriquecedor, con el propósito de influir positivamente en el entorno social y empresarial de la ciudad.

El grupo de investigación DINper, Diseño Inclusivo Personalizado, de la Universidad de Burgos, desde la Escuela Politécnica Superior forma parte de las universidades que, en asociación con Meta, está impulsando la investigación en visión por computadora a través de la recopilación de conjuntos de datos egocéntricos y exocéntricos, como conjuntos de las actividades humanas.

Además del investigador de la UBU, en este foro participarán Carlos Santana Vega, experto y divulgador de la Inteligencia Artificial (IA) y el Aprendizaje Automático. Es el fundador del canal de YouTube DotCSV – Inteligencia Artificial, que tiene más de 850,000 suscriptores. También enseña Machine Learning y Ciencia de Datos en la EOI; Selene Patricia García Minguito es una profesional destacada en el campo creativo y educativo, especializada en diseño y animación 2D/3D y la aplicación de IA. Es profesora en la Madrid Content School y trabaja como animadora 2d/3D en la empresa Prodigioso Volcán, donde se enfoca en gráficos en movimiento y la integración de IA en proyectos creativos.

En la sección #BurgosCorazonIndustrialDelNorte, Pedro Sánchez Ortega estará acompañado de Felipe Basurto Barrio (AILY LABS), que hablará sobre cómo potenciar a las empresas con IA; y Rodrigo RIVAS (Estudiante de 6º de Primaria), que presentará su exploración de la IA a través de Minecraft.

El evento, organizado por Fundación Círculo Burgos, AEPV BURGOS El Doce Estrategia Digital, se celebrará en salón de actos de Fundación Círculo, en Pza. España, a partir de las 17:30 h. Finalizará con un Networking de la mano de Mahou San Miguel.

El proyecto ARIA de Meta Reality Labs.

  • Una ventana de entrenamiento de la Inteligencia Artificial a las complejas tareas humanas

Más de 3.670 horas de vídeos e imágenes que capturan a los humanos realizando tareas simultáneamente desde su punto de vista y externamente, ayudarán a dar a los modelos de IA una comprensión de cómo los humanos llevan a cabo las actividades. Sobre la base del trabajo que desde el lanzamiento del proyecto Egocentric 4D Live Perception, el conjunto de datos egocéntricos más diverso del mundo, el consorcio Ego4D ha ampliado drásticamente el alcance y la ambición de su investigación con el recién publicado Ego-Exo4D, un conjunto de datos fundamental para apoyar la investigación sobre el aprendizaje por vídeo y la percepción multimodal. A partir de este curso el grupo de investigación DINper, Diseño Inclusivo Personalizado, de la Universidad de Burgos dirigido por el profesor Pedro Luis Sánchez Ortega, desde la Escuela Politécnica Superior entra a formar parte de las universidades que en asociación con Meta está impulsando la investigación en visión por computadora a través de la recopilación de conjuntos de datos egocéntricos y exocéntricos, como conjuntos de las actividades humanas.

Resultado de un esfuerzo de estos años por parte de FAIR (Investigación Fundamental de Inteligencia Artificial) de Meta, Project Aria y el consorcio Ego4D de los socios universitarios, EgoExo4D es un conjunto de datos multivista y multimodal a gran escala, el primero de su tipo, y un conjunto de referencias. Su característica definitoria es la captura simultánea tanto de vistas “egocéntricas” en primera persona, desde el dispositivo portátil de un participante, sus gafas, como de múltiples vistas “exocéntricas”, desde las cámaras que rodean al participante. Juntas, estas dos perspectivas darán a los modelos de IA una nueva ventana a la compleja actividad humana cualificada. 

Además de Ego4D, como iniciativa para crear y compartir los datos necesarios para avanzar en el estado de la visión por computadora a partir de video egocéntrico, el Proyecto Aria de Meta incluye varios subproyectos y colaboraciones otras universidades y el sector privado: 

  • Proyecto NavCog con Carnegie Mellon University donde se busca construir mapas 3D de museos y aeropuertos para ayudar a las personas con discapacidades visuales a navegar mejor en interiores.
  • Como colaboración con el fabricante de automóviles BMW, Meta busca explorar cómo la tecnología de realidad aumentada y realidad virtual o mixta, podría integrarse en los vehículos del mañana.

Aunque las fuentes de los primeros conjuntos de datos se obtuvieron a partir de dispositivos diversos, como son la GoPro, Vuzix Blade, Pupil Labs, ZShades, ORDRO EP6, iVue Rincon 1080 y Weeview, desde este momento se aportará desde la Universidad de Burgos la incorporación de información con las Gafas del KIT del Proyecto ARIA para universidades, gracias a la colaboración con Meta y el kit de investigación que incluye las gafas del Proyecto Aria y su SDK como socios de investigación aprobados. Desde DINper se podrán realizar además estudios independientes y ayudar a dar forma al futuro de la realidad aumentada.

Este tipo de dispositivos de investigación incluyen tecnología no tan convencional, ya que integran 5 Cameras. Dispositivos inerciales, Magnetómetros, Micrófonos, Barómetro y GPS, además de señalizadores WIFI y Bluetooth. 

DINper con su participación en el Proyecto ARIA apuesta por un esfuerzo ambicioso para avanzar en la realidad aumentada y la inteligencia artificial desde una perspectiva humana, que tiene el potencial de transformar la forma en que interactuamos con el mundo digital.

Publicaciones relacionadas

Deja una respuesta

Botón volver arriba