Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.
Por cierto, TechCrunch planea lanzar un boletín informativo sobre IA el 5 de junio. Estén atentos. Mientras tanto, estamos aumentando la cadencia de nuestra columna semiregular de IA, que anteriormente era dos veces al mes (más o menos), a semanal; así que esté atento a más ediciones.
Esta semana en IA, OpenAI lanzó planes con descuento para organizaciones sin fines de lucro y clientes de educación y abrió el telón de sus esfuerzos más recientes para evitar que los malos actores abusen de sus herramientas de IA. No hay mucho que criticar, al menos no en opinión de este escritor. Pero yo voluntad Dicen que la avalancha de anuncios parecía oportuna para contrarrestar la mala prensa de la compañía últimamente.
Empecemos con Scarlett Johansson. OpenAI eliminó una de las voces utilizadas por su chatbot ChatGPT impulsado por IA después de que los usuarios señalaran que sonaba inquietantemente similar a la de Johansson. Más tarde, Johansson emitió un comunicado diciendo que contrató a un asesor legal para preguntar sobre la voz y obtener detalles exactos sobre cómo se desarrolló, y que había rechazado repetidas súplicas de OpenAI para licenciar su voz para ChatGPT.
Ahora, un artículo en The Washington Post implica que OpenAI en realidad no buscó clonar la voz de Johansson y que cualquier similitud fue accidental. Pero entonces, ¿por qué el CEO de OpenAI, Sam Altman, se acercó a Johansson y la instó a reconsiderarlo dos días antes de una llamativa demostración que presentaba la voz sonora? Es un poco sospechoso.
Luego están los problemas de confianza y seguridad de OpenAI.
Como informamos a principios de mes, al equipo Superalignment de OpenAI, ya disuelto, responsable de desarrollar formas de gobernar y dirigir sistemas de IA “superinteligentes”, se le prometió el 20% de los recursos informáticos de la empresa, pero solo (y rara vez) recibió una fracción de este. Eso (entre otras razones) llevó a la renuncia de los dos codirectores de los equipos, Jan Leike e Ilya Sutskever, ex científico jefe de OpenAI.
Casi una docena de expertos en seguridad han abandonado OpenAI en el año pasado; varios, incluido Leike, han expresado públicamente su preocupación de que la empresa esté dando prioridad a los proyectos comerciales sobre los esfuerzos de seguridad y transparencia. En respuesta a las críticas, OpenAI formó un nuevo comité para supervisar las decisiones de seguridad relacionadas con los proyectos y operaciones de la empresa. Pero dotó al comité de personal interno de la empresa, incluido Altman, en lugar de observadores externos. Esto como se informa OpenAI considera abandonar su estructura sin fines de lucro a favor de un modelo tradicional con fines de lucro.
Incidentes como estos hacen que sea más difícil confiar en OpenAI, una empresa cuyo poder e influencia crecen diariamente (ver: sus acuerdos con editores de noticias). Pocas corporaciones, si es que hay alguna, son dignas de confianza. Pero las tecnologías disruptivas del mercado de OpenAI hacen que las violaciones sean aún más preocupantes.
No ayuda que el propio Altman no sea exactamente un faro de veracidad.
Cuando las noticias de OpenAI tácticas agresivas hacia ex empleados rompió (tácticas que implicaban amenazar a los empleados con la pérdida de su capital adquirido, o la prevención de ventas de capital, si no firmaban acuerdos restrictivos de confidencialidad), Altman se disculpó y afirmó que no tenía conocimiento de las políticas. Pero, según Voxla firma de Altman está en los documentos de constitución que promulgaron las políticas.
Y si Helen Toner, ex miembro de la junta directiva de OpenAI Es de creer (uno de los ex miembros de la junta que intentó destituir a Altman de su cargo a fines del año pasado) que Altman ha ocultado información, tergiversó cosas que estaban sucediendo en OpenAI y, en algunos casos, mintió abiertamente a la junta. Toner dice que la junta se enteró del lanzamiento de ChatGPT a través de Twitter, no de Altman; que Altman dio información errónea sobre las prácticas formales de seguridad de OpenAI; y que Altman, disgustado con un artículo académico del que Toner fue coautor y que arrojaba una luz crítica sobre OpenAI, intentó manipular a los miembros de la junta para expulsar a Toner de la junta.
Nada de eso augura nada bueno.
Aquí hay algunas otras historias destacadas de IA de los últimos días:
- La clonación de voz es fácil: Un nuevo informe del Centro para Contrarrestar el Odio Digital encuentra que los servicios de clonación de voz impulsados por IA hacen que falsificar la declaración de un político sea bastante trivial.
- Las descripciones generales de IA de Google luchan: Las descripciones generales de IA, los resultados de búsqueda generados por IA que Google comenzó a implementar de manera más amplia a principios de este mes en la Búsqueda de Google, necesitan algo de trabajo. La compañía lo admite, pero afirma que está iterando rápidamente. (Ya veremos.)
- Paul Graham sobre Altman: En una serie de publicaciones en X, Paul Graham, cofundador de la aceleradora de startups Y Combinator, desestimó las afirmaciones de que Altman fue presionado para renunciar como presidente de Y Combinator en 2019 debido a posibles conflictos de intereses. (Y Combinator tiene una pequeña participación en OpenAI).
- xAI recauda 6 mil millones de dólares: La startup de IA de Elon Musk, xAI, ha recaudado 6.000 millones de dólares en financiación mientras Musk reúne capital para competir agresivamente con rivales como OpenAI, Microsoft y Alphabet.
- La nueva característica de IA de Perplexity: Con su nueva capacidad Perplexity Pages, la startup de inteligencia artificial Perplexity tiene como objetivo ayudar a los usuarios a crear informes, artículos o guías en un formato más atractivo visualmente, informa Ivan.
- Números favoritos de los modelos de IA: Devin escribe sobre los números que eligen los diferentes modelos de IA cuando se les asigna la tarea de dar una respuesta aleatoria. Resulta que tienen favoritos, un reflejo de los datos con los que cada uno fue entrenado.
- Mistral lanza Codestral: Mistral, la startup francesa de IA respaldada por Microsoft y valorada en 6.000 millones de dólares, ha lanzado su primer modelo de IA generativa para codificación, denominado Codestral. Pero no se puede utilizar comercialmente gracias a la licencia bastante restrictiva de Mistral.
- Chatbots y privacidad: Natasha escribe sobre el grupo de trabajo ChatGPT de la Unión Europea y cómo ofrece una primera mirada para desenredar el cumplimiento de la privacidad del chatbot de IA.
- Generador de sonido de ElevenLabs: La startup de clonación de voz ElevenLabs presentó una nueva herramienta, anunciada por primera vez en febrero, que permite a los usuarios generar efectos de sonido a través de indicaciones.
- Interconexiones para chips AI: Gigantes tecnológicos como Microsoft, Google e Intel, pero no Arm, Nvidia o AWS, han formado un grupo industrial, UALink Promoter Group, para ayudar a desarrollar componentes de chips de IA de próxima generación.