Hola amigos, y bienvenidos al boletín informativo inaugural sobre IA de TechCrunch. Es realmente emocionante escribir esas palabras; esta ha tardado mucho en prepararse y estamos emocionados de poder compartirla finalmente con usted.
Con el lanzamiento del boletín informativo sobre IA de TC, ponemos fin a This Week in AI, la columna semirregular anteriormente conocida como Perceptron. Pero encontrarás todos los análisis que trajimos a Esta Semana en AI y másque incluye un foco sobre nuevos modelos de IA notables, aquí mismo.
Esta semana en IA, se avecinan problemas, nuevamente, para OpenAI.
Un grupo de ex empleados de OpenAI habló con Kevin Roose del New York Times sobre lo que perciben como fallas de seguridad atroces dentro de la organización. Ellos, como otros que abandonaron OpenAI en los últimos meses, afirman que la empresa no está haciendo lo suficiente para evitar que sus sistemas de IA se vuelvan potencialmente peligrosos y acusan a OpenAI de emplear tácticas duras para intentar evitar que los trabajadores hagan sonar la alarma.
El grupo publicó una carta abierta el martes pidiendo a las principales empresas de inteligencia artificial, incluida OpenAI, que establezcan una mayor transparencia y más protección para los denunciantes. “Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles responsabilidades ante el público”, se lee en la carta.
Llámenme pesimista, pero espero que los llamados de los ex empleados caigan en oídos sordos. Es difícil imaginar un escenario en el que las empresas de IA no sólo acepten “apoyar una cultura de crítica abierta”, como recomienda el abajo firmante, sino que también opten por no hacer cumplir cláusulas de no menosprecio ni tomar represalias contra el personal actual que decida hablar.
Considere que la comisión de seguridad de OpenAI, que la compañía creó recientemente en respuesta a inicial críticas a sus prácticas de seguridad, cuenta con todos los miembros de la empresa, incluido el director ejecutivo Sam Altman. Y considere que Altman, quien en un momento afirmó no tener conocimiento de los restrictivos acuerdos de no menosprecio de OpenAI, él mismo firmado los documentos constitutivos que los establezcan.
Claro, las cosas en OpenAI podrían cambiar mañana, pero no voy a contener la respiración. E incluso si lo hicieran, sería difícil confiar en ello.
Noticias
Apocalipsis de la IA: La plataforma de chatbot impulsada por IA de OpenAI, ChatGPT, junto con Claude de Anthropic y Gemini y Perplexity de Google, cayeron esta mañana aproximadamente al mismo tiempo. Desde entonces se han restablecido todos los servicios, pero la causa de su interrupción sigue sin estar clara.
OpenAI explorando la fusión: OpenAI está en conversaciones con la startup de fusión Helion Energy sobre un acuerdo en el que la compañía de IA compraría grandes cantidades de electricidad a Helion para proporcionar energía a sus centros de datos, según el Wall Street Journal. Altman tiene una participación de 375 millones de dólares en Helion y forma parte de la junta directiva de la compañía, pero, según se informa, se ha recusado de las conversaciones sobre el acuerdo.
El costo de los datos de entrenamiento: TechCrunch echa un vistazo a los costosos acuerdos de licencia de datos que se están volviendo comunes en la industria de la IA, acuerdos que amenazan con hacer que la investigación de la IA sea insostenible para organizaciones e instituciones académicas más pequeñas.
Generadores de música odiosa: Actores malintencionados están abusando de generadores de música impulsados por inteligencia artificial para crear canciones homofóbicas, racistas y propagandísticas, y publican guías que instruyen a otros sobre cómo hacerlo también.
Efectivo para Cohere: Reuters informa que Cohere, una startup de IA generativa centrada en la empresa, ha recaudado 450 millones de dólares de Nvidia, Salesforce Ventures, Cisco y otros en un nuevo tramo que valora a Cohere en 5 mil millones de dólares. Fuentes familiarizadas con TechCrunch dicen que Oracle y Thomvest Ventures, ambos inversores recurrentes, también participaron en la ronda, que quedó abierta.
Trabajo de investigación de la semana.
en un trabajo de investigación de 2023 titulado “Verifiquemos paso a paso” que OpenAI resaltado recientemente En su blog oficial, los científicos de OpenAI afirmaron haber perfeccionado el modelo de IA generativa de propósito general de la startup, GPT-4, para lograr un rendimiento mejor de lo esperado en la resolución de problemas matemáticos. El enfoque podría conducir a modelos generativos menos propensos a descarrilarse, dicen los coautores del artículo, pero señalan varias advertencias.
En el artículo, los coautores detallan cómo entrenaron modelos de recompensa para detectar alucinaciones, o casos en los que GPT-4 se equivocó en sus datos y/o respuestas a problemas matemáticos. (Los modelos de recompensa son modelos especializados para evaluar los resultados de los modelos de IA, en este caso los resultados relacionados con las matemáticas de GPT-4). Los modelos de recompensa “recompensaban” a GPT-4 cada vez que acertaba en un paso de un problema matemático, un enfoque los investigadores lo denominan “supervisión de procesos”.
Los investigadores dicen que la supervisión del proceso mejoró la precisión de los problemas matemáticos de GPT-4 en comparación con técnicas anteriores de modelos “recompensantes”, al menos en sus pruebas de referencia. Sin embargo, admiten que no es perfecto; GPT-4 todavía se equivocó en los pasos del problema. Y no está claro cómo la forma de supervisión de procesos que exploraron los investigadores podría generalizarse más allá del ámbito matemático.
modelo de la semana
Puede que pronosticar el tiempo no parezca una ciencia (al menos cuando llueve, como acabo de hacer yo), pero eso se debe a que se trata de probabilidades, no de certezas. ¿Y qué mejor manera de calcular probabilidades que un modelo probabilístico? Ya hemos visto cómo la IA se pone a trabajar en la predicción del tiempo en escalas de tiempo que van desde horas hasta siglos, y ahora Microsoft se está sumando a la diversión. De la empresa nuevo modelo aurora mueve la pelota hacia adelante en este rincón del mundo de la IA en rápida evolución, proporcionando predicciones a nivel mundial con una resolución de ~0,1° (piense en el orden de 10 km cuadrados).
Capacitado en más de un millón de horas de simulaciones meteorológicas y climáticas (¿no clima real? Mmm…) y ajustado en una serie de tareas deseables, Aurora supera a los sistemas tradicionales de predicción numérica en varios órdenes de magnitud. Lo más impresionante es que supera a GraphCast de Google DeepMind en su propio juego (aunque Microsoft eligió el campo), proporcionando conjeturas más precisas de las condiciones climáticas en una escala de uno a cinco días.
Empresas como Google y Microsoft tienen un caballo en la carrera, por supuesto, y ambas compiten por su atención en línea al tratar de ofrecer la experiencia web y de búsqueda más personalizada. Los pronósticos meteorológicos precisos y eficientes de primera mano serán una parte importante de eso, al menos hasta que dejemos de salir a la calle.
bolsa de agarre
en un pensamiento pieza el mes pasado en Palladium, Avital Balwit, jefe de personal de la startup de IA Anthropic, postula que los próximos tres años podrían ser los últimos que ella y muchos trabajadores del conocimiento tengan para trabajar gracias a los rápidos avances de la IA generativa. Esto debería ser un consuelo más que un motivo de temor, afirma, porque podría “[lead to] un mundo donde las personas tengan cubiertas sus necesidades materiales pero tampoco tengan necesidad de trabajar”.
“Un renombrado investigador de IA me dijo una vez que está practicando durante [this inflection point] al emprender actividades en las que no es particularmente bueno: jiu-jitsu, surf, etc., y saborearlas incluso sin excelencia”, escribe Balwit. “Así es como podemos prepararnos para nuestro futuro, donde tendremos que hacer las cosas por alegría y no por necesidad, donde ya no seremos los mejores en ellas, sino que aún tendremos que elegir cómo ocupar nuestros días”.
Esa es ciertamente la visión del vaso medio lleno, pero no puedo decir que la comparta.
Si la IA generativa reemplaza a la mayoría de los trabajadores del conocimiento dentro de tres años (lo que me parece poco realista dados los numerosos problemas técnicos sin resolver de la IA), bien podría sobrevenir el colapso económico. Los trabajadores del conocimiento constituyen grandes porciones de la fuerza laboral y tienden a tener altos ingresos – y, por tanto, grandes gastadores. Impulsan las ruedas del capitalismo.
Balwit hace referencia a la renta básica universal y otros programas de redes de seguridad social a gran escala. Pero no tengo mucha fe en que países como Estados Unidos, que ni siquiera pueden gestionar una legislación básica sobre inteligencia artificial a nivel federal, adopten esquemas de renta básica universal en el corto plazo.
Con un poco de suerte, estoy equivocado.