La investigación en el campo del aprendizaje automático y la IA, ahora una tecnología clave en prácticamente todas las industrias y empresas, es demasiado voluminosa para que alguien la lea en su totalidad. Esta columna tiene como objetivo recopilar algunos de los descubrimientos y documentos recientes más relevantes, particularmente en inteligencia artificial, entre otros, y explicar por qué son importantes.
Esta semana, las aplicaciones de IA se han encontrado en varios nichos inesperados debido a su capacidad para clasificar grandes cantidades de datos o, alternativamente, hacer predicciones sensatas basadas en evidencia limitada.
Hemos visto modelos de aprendizaje automático que se basan en grandes conjuntos de datos en biotecnología y finanzas, pero los investigadores de ETH Zurich y LMU Munich están aplicando técnicas similares a los datos generados por proyectos internacionales de ayuda al desarrollo, como el alivio de desastres y la vivienda. El equipo entrenó su modelo en millones de proyectos (que ascienden a 2,8 billones de dólares en financiación) de los últimos 20 años, un conjunto de datos enorme que es demasiado complejo para analizarlo manualmente en detalle.
“Puede pensar en el proceso como un intento de leer una biblioteca completa y clasificar libros similares en estantes de temas específicos. Nuestro algoritmo tiene en cuenta 200 dimensiones diferentes para determinar qué tan similares son estos 3,2 millones de proyectos entre sí, una carga de trabajo imposible para un ser humano”, dijo el autor del estudio, Malte Toetzke.
Las tendencias de muy alto nivel sugieren que el gasto en inclusión y diversidad ha aumentado, mientras que el gasto climático, sorprendentemente, ha disminuido en los últimos años. Puede examinar el conjunto de datos y las tendencias que analizaron aquí.
Otra área en la que pocas personas piensan es la gran cantidad de piezas y componentes de máquinas que varias industrias producen a un ritmo enorme. Algunos se pueden reutilizar, algunos reciclar, otros se deben desechar de manera responsable, pero hay demasiados para que los especialistas humanos los analicen. El equipo alemán de I+D Fraunhofer ha desarrollado un modelo de aprendizaje automático para identificar piezas de modo que puedan utilizarse en lugar de dirigirse al depósito de chatarra.
Créditos de imagen: Fraunhofer
El sistema se basa en vistas de cámara más que ordinarias, ya que las piezas pueden parecer similares pero ser muy diferentes, o ser idénticas mecánicamente pero difieren visualmente debido a la oxidación o el desgaste. Por lo tanto, cada parte también se pesa y escanea con cámaras 3D, y también se incluyen metadatos como el origen. Luego, el modelo sugiere lo que cree que es la pieza para que el humano que la inspecciona no tenga que comenzar desde cero. Se espera que pronto se guarden decenas de miles de piezas y se acelere el procesamiento de millones mediante el uso de este método de identificación asistido por IA.
Los físicos han encontrado una forma interesante de aplicar las cualidades de ML a un problema de siglos de antigüedad. Esencialmente, los investigadores siempre están buscando formas de demostrar que las ecuaciones que gobiernan la dinámica de fluidos (algunas de las cuales, como la de Euler, datan del siglo XVIII) están incompletas, que se rompen en ciertos valores extremos. Usando técnicas computacionales tradicionales, esto es difícil de hacer, aunque no imposible. Pero los investigadores del CIT y la Universidad Hang Seng en Hong Kong proponen un nuevo método de aprendizaje profundo para aislar casos probables de singularidades de dinámica de fluidos, mientras que otros están aplicando la técnica de otras maneras al campo. Este artículo de Quanta explica bastante bien este interesante desarrollo.
Otro concepto centenario que obtiene una capa ML es kirigami, el arte de cortar papel con el que muchos estarán familiarizados en el contexto de la creación de copos de nieve de papel. La técnica se remonta a siglos atrás en Japón y China en particular, y puede producir estructuras notablemente complejas y flexibles. Los investigadores de Argonne National Labs se inspiraron en el concepto para teorizar un material 2D que puede retener la electrónica a escala microscópica pero también flexionarse fácilmente.
El equipo había estado haciendo decenas de miles de experimentos con 1-6 cortes manualmente y usó esos datos para entrenar el modelo. Luego utilizaron una supercomputadora del Departamento de Energía para realizar simulaciones hasta el nivel molecular. En segundos produjo una variación de 10 cortes con un 40 por ciento de capacidad de estiramiento, mucho más allá de lo que el equipo había esperado o incluso intentado por su cuenta.
![Simulación de moléculas formando un material 2D estirable.](https://techcrunch.com/wp-content/uploads/2022/04/Kirigami_cuts-16x9-1.jpg)
Créditos de imagen: Laboratorios Nacionales de Argonne
“Ha descubierto cosas que nunca le dijimos que descifrara. Aprendió algo de la forma en que un humano aprende y usó su conocimiento para hacer algo diferente”, dijo el líder del proyecto, Pankaj Rajak. El éxito los ha impulsado a aumentar la complejidad y el alcance de la simulación.
Otra extrapolación interesante realizada por una IA especialmente entrenada tiene un modelo de visión por computadora que reconstruye datos de color a partir de entradas infrarrojas. Normalmente, una cámara que captura IR no sabría nada sobre el color de un objeto en el espectro visible. Pero este experimento encontró correlaciones entre ciertas bandas IR y las visibles, y creó un modelo para convertir imágenes de rostros humanos capturados en IR en otras que se aproximan al espectro visible.
Todavía es solo una prueba de concepto, pero tal flexibilidad de espectro podría ser una herramienta útil en ciencia y fotografía.
—
Mientras tanto, un nuevo estudio en coautoría con el líder de Google AI, Jeff Dean, rechaza la noción de que la IA es un esfuerzo ambientalmente costoso, debido a sus altos requisitos de cómputo. Si bien algunas investigaciones han encontrado que entrenar un modelo grande como el GPT-3 de OpenAI puede generar emisiones de dióxido de carbono equivalente al de un vecindario pequeño, el estudio afiliado a Google sostiene que “seguir las mejores prácticas” puede reducir las emisiones de carbono del aprendizaje automático hasta 1000 veces.
Las prácticas en cuestión se refieren a los tipos de modelos utilizados, las máquinas utilizadas para entrenar modelos, la “mecanización” (por ejemplo, computación en la nube frente a computadoras locales) y “mapa” (selección de ubicaciones de centros de datos con la energía más limpia). Según los coautores, la selección de modelos “eficientes” por sí sola puede reducir el cálculo en factores de 5 a 10, mientras que el uso de procesadores optimizados para el aprendizaje automático, como las GPU, puede mejorar la relación rendimiento por vatio en factores de 2 a 5.
Cualquier hilo de investigación que sugiera que el impacto ambiental de la IA puede reducirse es motivo de celebración, de hecho. Pero debe señalarse que Google no es una parte neutral. Muchos de los productos de la empresa, desde Google Maps hasta Google Search, se basan en modelos que requieren grandes cantidades de energía para desarrollarse y ejecutarse.
Mike Cook, miembro del grupo abierto de investigación de cuchillos y pinceles, señala que, incluso si las estimaciones del estudio son precisas, hay simplemente no es una buena razón para que una empresa no se amplíe de una manera ineficiente desde el punto de vista energético si la beneficia. Si bien los grupos académicos pueden prestar atención a métricas como el impacto del carbono, las empresas no están tan incentivadas de la misma manera, al menos actualmente.
“Para empezar, la razón principal por la que estamos teniendo esta conversación es que compañías como Google y OpenAI tenían efectivamente fondos infinitos y optaron por aprovecharlos para construir modelos como GPT-3 y BERT a cualquier costo, porque sabían que les daría un ventaja,” Cook le dijo a TechCrunch por correo electrónico. “General, Creo que el documento dice algunas cosas buenas y es genial si estamos pensando en la eficiencia, pero en mi opinión, el problema no es técnico: sabemos con certeza que estas empresas crecerán cuando lo necesiten, ganaron. no se refrenan, así que decir que esto ahora está resuelto para siempre se siente como una línea vacía”.
El último tema de esta semana no es exactamente sobre el aprendizaje automático, sino sobre cuál podría ser un camino a seguir para simular el cerebro de una manera más directa. Los investigadores de bioinformática de EPFL crearon un modelo matemático para crear toneladas de neuronas simuladas únicas pero precisas que eventualmente podrían usarse para construir gemelos digitales de neuroanatomía.
“Los hallazgos ya están permitiendo a Blue Brain construir reconstrucciones y simulaciones biológicamente detalladas del cerebro del ratón, mediante la reconstrucción computacional de regiones cerebrales para simulaciones que replican las propiedades anatómicas de las morfologías neuronales e incluyen la anatomía específica de la región”, dijo la investigadora Lida Kanari.
No espere que los sim-brains produzcan mejores IA, esto es en gran medida en la búsqueda de avances en neurociencia, pero tal vez los conocimientos de las redes neuronales simuladas puedan conducir a mejoras fundamentales en la comprensión de los procesos que la IA busca imitar digitalmente.