CEO de OpenAI dice que la regulación para «los modelos pequeños» no tiene sentido y «debe ser para los grandes»

El CEO de OpenAI, Sam Altman, cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) «no tiene sentido» y apuesta por regular de cara a los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son «los que realmente pueden hacer daño».

Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado este lunes en la IE University, donde ha estado acompañado por el científico de investigación de OpenAI Mo Bavarian; el director ejecutivo del Programa Owners Scaleup, Joe Haslam; y la cofundadora y CEO de Clibrain, Elena González-Blanco.

Durante la ponencia, el CEO de OpenAI ha remarcado que la regulación es «muy importante», pero también ha puesto énfasis en que sobrerregular «no es bueno» ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación.

«No pensamos que la regulación para modelos pequeños tenga sentido», ha observado Altman, al tiempo que ha indicado que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente «no podamos hacer daño en el mundo».

Así, ha sugerido que se debe «dejar crecer» a los modelos pequeños y que lo lógico es centrar la atención de la regulación en los modelos grandes, ya que «somos los que podemos manejarlos».

Igualmente, el CEO de OpenAI ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles.

En este sentido, ha asegurado que desde la compañía continuarán «trabajando con otros gobiernos alrededor del mundo» para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.

Además, ha apuntado que desde OpenAI quieren llevar a cabo tecnología con la que «la gente se encuentre cómoda y segura».

«Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar», ha aseverado Altman, en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.

«Es justo y razonable ser escéptico», ha manifestado, al tiempo que ha admitido que el trabajo de la tecnología con la IA «no ha sido perfecto». En este sentido, ha señalado que aunque ha habido «muchos errores», también se ha de tener en cuenta todo el trabajo llevado a cabo para solucionarlos y crear mejoras.

De la misma forma, Altman ha explicado que han empujado a estas tecnologías, en este caso ChatGPT, a ser «abiertas de cara al mundo», aún sabiendo que no son perfectas porque «la gente tiene que probarlas».

Es decir, según ha desarrollado, considera mejor que la gente, las instituciones y los gobiernos prueben una tecnología de estas características aunque aún no esté completamente lista, para ver «cómo se puede utilizar de forma buena y mala y, en base a ello, adaptarla a la sociedad».

Por todo ello, ha reiterado la importancia de la regulación de los modelos de lenguaje impulsados por IA como ChatGPT, pero también ha hecho hincapié en que lo que preocupa a la compañía es, sobre todo, «hacer lo correcto» y, por ello, ha puesto en valor que llevan ocho meses «haciendo ChatGPT más seguro».

El G7 acuerda promover el uso «responsable» de la Inteligencia Artificial

Las principales economías del mundo han acordado este domingo elaborar medidas para la promoción del uso «responsable» de la inteligencia principal ante el frenético desarrollo de tecnologías como el «bot» ChatGPT que, según el G7, plantea tantos beneficios como problemas de privacidad y riesgos de uso indebido.

«Dado que las tecnologías de IA generativa son cada vez más prominentes en todos los países y sectores, reconocemos la necesidad de hacer un balance a corto plazo de las oportunidades y desafíos de estas tecnologías y continuar promoviendo la seguridad y la confianza», según un comunicado conjunto de los ministros de Tecnología y Desarrollo Digital del G7 al término de su reunión en la ciudad japonesa de Takasaki, en el este del país.

De igual modo, los ministros también han respaldado un plan de acción «crear entornos abiertos y propicios para la innovación responsable de la IA», pidiendo una participación más amplia de las partes interesadas en el desarrollo de estándares internacionales sobre los marcos de gobernanza, según el comunicado recogido por la agencia oficial de noticias japonesa Kyodo.

De hecho, este mismo mes, el ministro alemán de Transporte y Digitalización, Volker Wissing, reclamó a la Unión Europea la rápida elaboración de normas jurídicas para la aplicación de la inteligencia artificial en todo el bloque.

«Debemos reaccionar con sensatez ahora y regular la inteligencia artificial antes de que sea demasiado tarde para ello. Esto no debe volver a tardar años», manifestó Wissing en declaraciones publicadas por el dominical ‘Bild am Sonntag’.

Asimismo, los ministros de Reino Unido, Canadá, Francia, Alemania, Italia, Japón y Estados Unidos, además de la Unión Europea, también han anunciado la puesta en marcha de sus propios planes de acción para reforzar la infraestructura digital ante los diferentes riesgos geopolíticos, de acuerdo con la nota.

Así reaccionaron en redes a «Sira» la anfitriona de Maduro creada por IA

Caracas. – La «gran sorpresa» ofrecida por Nicolás Maduro, fue haberse presentado este lunes, en su nuevo programa de televisión “Con Maduro +”, contando con la participación de Sira, una presentadora estelar creada con Inteligencia Artificial (IA).

«Llegó Sira, la Inteligencia Artificial. Habrá muchas sorpresas con la Inteligencia Artificial que llegó para quedarse”, anunció el líder de la Narcotiranía.

La imagen de Sira, es la de una mujer joven, de cabello rizado y piel morena, que se presentó como la coanimadora del espacio y dijo estar “feliz y honrada” de acompañar a Maduro.

«Fui creada bajo los parámetros de la Inteligencia Artificial para acompañarlo desde hoy en su programa Con Maduro +”, afirmó.

Las publicaciones, memes y burlas, no tardaron en inundar las redes sociales, principalmente en Twitter.

Estas fueron algunas de las reacciones ante la «sorpresa» anunciado por el narcodictador:

Elon Musk asegura que su Inteligencia Artificial buscará «entender la naturaleza del universo»

Elon Musk ha asegurado este lunes que su proyecto de inteligencia artifical (IA) tratará de «entender la naturaleza del universo» y buscará siempre la verdad, frente a los chatbots desarrollados por OpenAI o Google, que «están siendo entrenados para ser políticamente correctos».

En una entrevista en la cadena Fox News, Musk comparó esta tendencia a la corrección política con decir falsedades en Twitter —red social de su propiedad—, por lo que abogó por construir una «tercera opción», frente al dominio de Google y de OpenAI, que tiene un acuerdo de financiación con Microsoft.

Cabe mencionar que, el pasado viernes, el medio Financial Times adelantó la intención de Musk de unirse a la carrera de chatbots con inteligencia artificial y lanzar su propia empresa para competir con el Bard de Google y el ChatGPT de OpenAI.

En su entrevista en Fox, Musk reconoció que «llega tarde» a la carrera, pero que espera que su proyecto «haga más bien que mal».

En este sentido, el magnate, que se ha mostrado muy crítico con los rápidos avances de la inteligencia artificial, aventuró que una IA que busque entender el universo no querrá aniquilar a la humanidad, ya que los humanos son «una parte interesante del universo».

Durante la entrevista, Musk mostró su preocupación por el desarrollo sin control de la inteligencia artificial, que según el empresario podría llevar a la destrucción de los humanos.

Musk es cofundador de OpenAI, fue uno de sus primeros inversores y llegó a ser copresidente. No obstante, en 2018 se convirtió en una sociedad limitada y Musk dejó su directiva.

El magnate ha criticado a la compañía en varias ocasiones, y especialmente por su supuesto sesgo ideológico contra políticos conservadores como Donald Trump.

«El peligro de entrenar a la IA para ser «woke» —en otras palabras, para mentir— es mortal», ha llegado a escribir Musk en Twitter.

Alemania reclama a la UE el impulso de una normativa para regular las aplicaciones de inteligencia artificial

El ministro alemán de Transporte y Digitalización, Volker Wissing, ha reclamado a la Unión Europea (UE) la rápida elaboración de normas jurídicas para la aplicación de la inteligencia artificial (IA) en todo el bloque.

«Debemos reaccionar con sensatez ahora y regular la inteligencia artificial antes de que sea demasiado tarde para ello. Esto no debe volver a tardar años», ha manifestado Wissing en declaraciones publicadas por el dominical ‘Bild am Sonntag’.

Actualmente causan furor el programa que crea textos automáticamente ChatGPT, el software competidor Bard de Google y los programas que pueden generar imágenes a partir de descripciones de texto.

Al mismo tiempo, preocupa que esta tecnología basada en la IA pueda utilizarse indebidamente, por ejemplo, para difundir información falsa.

«Es esencial encontrar un equilibrio entre la apertura a la innovación y un marco jurídico claro que defina normas para una IA digna de confianza», ha explicado por otro lado portavoz del Ministerio del Interior al diario ‘Handelsblatt’.

Según sus palabras, en los debates europeos para una regulación de la IA el Gobierno alemán ha abogado por hacer visible en una base de datos de acceso público el uso de determinados sistemas de IA de alto riesgo por parte de la administración pública.

Explicó que se trata de sistemas que podrían utilizarse en ámbitos del control de fronteras o de la aplicación de la ley —por ejemplo, para predecir la probabilidad de delitos—.

El ministro Wissing resaltó que el marco jurídico debe garantizar que la nueva tecnología solo pueda utilizarse si respeta valores europeos como la democracia, la transparencia y la neutralidad.

«Los sistemas de IA no deben manipularnos, deben apoyarnos». Al mismo tiempo, resaltó que ve enormes oportunidades en el uso de la inteligencia artificial.

Busca detener temporalmente los grandes experimentos con IA

Líderes tecnológicos de renombre como Steve Wozniak, Jaan Tallinn y Elon Musk han unido sus fuerzas para respaldar una petición que busca paralizar temporalmente los grandes experimentos con inteligencia artificial (IA) debido a los riesgos que pueden entrañar para la sociedad.

La petición ya cuenta con más de 1.100 firmas, y busca que los laboratorios de IA detengan «de inmediato y durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4».

Los líderes tecnológicos están preocupados por el desarrollo de sistemas de IA con inteligencia humana-competitiva y piden que se detengan temporalmente para desarrollar e implementar un conjunto de protocolos de seguridad compartidos, auditados y supervisados por expertos externos independientes.

En la carta abierta publicada en el Future of Life Institute, también destacan la necesidad de trabajar con legisladores para avanzar en el desarrollo de sistemas sólidos de gobierno de IA que garanticen su desarrollo seguro, auditoría y supervisión, y permitan el seguimiento de los responsables en caso de fugas o daños.

La petición cuenta con el apoyo de líderes tecnológicos como el cofundador de Apple, Steve Wozniak; el director ejecutivo de Tesla y SpaceX y Twitter, Elon Musk; el cofundador de Skype, Jaan Tallinn; y el director ejecutivo de Stability AI, Emad Mostaque.