Gente de la Safor

Bienvenidos a Spain News Today.

Jan Licon de Meta se opone a una regulación temprana de la inteligencia artificial

Jan Licon de Meta se opone a una regulación temprana de la inteligencia artificial

Manténgase informado con actualizaciones gratuitas

Yann Leccon, científico jefe de IA en Meta, dijo que una regulación prematura de la IA sólo fortalecerá el dominio de las grandes empresas tecnológicas y sofocará la competencia.

“Regular la I+D de IA es increíblemente contraproducente”, dijo Leccon, uno de los principales investigadores de IA del mundo, al Financial Times antes de la conferencia de Bletchley Park del próximo mes sobre seguridad de la IA organizada por el gobierno británico. «Quieren control regulatorio bajo la apariencia de seguridad de la IA».

Las afirmaciones sobre la vigilancia de la IA surgen de un «complejo de superioridad» de algunas empresas de tecnología líderes que afirmaban que sólo se podía confiar en que desarrollarían la IA de forma segura, dijo LeCun. «Creo que eso es increíblemente arrogante. Creo que es todo lo contrario», dijo en una entrevista para la próxima serie de podcasts Tech Tonic del FT.

Meta, que lanzó su modelo de IA generativa LLaMA, se ha distanciado de otras grandes empresas tecnológicas, como Google y OpenAI, respaldada por Microsoft, al respaldar sistemas de IA de código abierto más accesibles. El último modelo OpenAI GPT-4 es la llamada caja negra en la que los datos y el código utilizados para construir el modelo no están disponibles para terceros.

LeCun argumentó que los modelos de código abierto han estimulado la competencia y han permitido que una mayor diversidad de personas construya y utilice sistemas de inteligencia artificial.

Pero los críticos temen que poner poderosos modelos generativos de IA en manos de actores potencialmente malos amplifique los riesgos de desinformación, guerra cibernética y bioterrorismo a escala industrial.

Al comienzo de Internet se plantearon argumentos similares sobre la necesidad de controlar la tecnología en rápida evolución, pero esa tecnología sólo floreció porque siguió siendo una plataforma abierta y descentralizada, dijo LeCun.

“Lo mismo ocurrirá con la inteligencia artificial”, añadió.

Lacon confirmó que participará en la cumbre de dos días que comienza el 1 de noviembre en el Centro de Decodificación de la Segunda Guerra Mundial en la campiña inglesa cerca de Londres.

LeCun es uno de los investigadores líderes a nivel mundial en el campo de las redes neuronales profundas, que ha impulsado los últimos avances en inteligencia artificial generativa. En 2018, ganó el Premio Turing de Ciencias de la Computación junto con Geoffrey Hinton y Joshua Bengio.

Pero desde la aparición de potentes modelos de IA generativa, como ChatGPT, Hinton y Bengio han expresado preocupación por los riesgos que plantean los modelos de IA de próxima generación. Ambos han pedido una desaceleración en el desarrollo de modelos innovadores y han advertido sobre los posibles riesgos existenciales de la inteligencia artificial.

Sin embargo, Lacon descartó la idea de que la IA pudiera matar a la humanidad, intencionalmente o virtualmente, calificándola de «absurda». Dijo que la gente estaba influenciada por la ciencia ficción y acabador Un escenario para creer que las máquinas inteligentes tomarán el control si se vuelven más inteligentes que los humanos.

«La inteligencia no tiene nada que ver con el deseo de dominar. Esto no es cierto ni siquiera para los humanos», dijo. «Si fuera cierto que los humanos más inteligentes quieren dominar a los demás, Albert Einstein y otros científicos serían ricos y poderosos, pero ellos no son.»

LeCun dijo que la generación actual de modelos de IA no era tan capaz como afirmaban algunos investigadores. «No entienden cómo funciona el mundo. No pueden planificar. No pueden pensar realmente», dijo. «No tenemos autos totalmente autónomos que puedan entrenarse para conducir con aproximadamente 20 horas de entrenamiento, algo que podría «lo hace un chico de 17 años».

El investigador de Meta dijo que OpenAI y Google DeepMind eran «consistentemente demasiado optimistas» sobre la complejidad del problema, y ​​que se necesitan muchos «avances conceptuales» antes de que los sistemas de IA se acerquen a la inteligencia a nivel humano. Pero incluso entonces, pueden controlarse codificando el “carácter moral” en estos sistemas de la misma manera que las personas promulgan leyes que rigen el comportamiento humano.

Dijo que regular los modelos de IA de vanguardia actuales sería como regular la industria de la aviación a reacción en 1925, cuando dichos aviones aún no se habían inventado. «El debate sobre el riesgo existencial es muy prematuro hasta que tengamos un diseño para un sistema que pueda incluso competir con un gato en términos de capacidades de aprendizaje, algo que no tenemos en este momento», afirmó.

LeCun reconoció que algún día las máquinas serán más inteligentes que los humanos en la mayoría de los campos, pero estimularán un segundo renacimiento del aprendizaje. Añadió que potentes sistemas de inteligencia artificial ayudarán a la humanidad a abordar grandes desafíos, como combatir el cambio climático y tratar enfermedades.

«No hay duda de que tendremos máquinas que nos ayudarán y que serán más inteligentes que nosotros. La pregunta es: ¿Es eso aterrador o emocionante? Creo que es emocionante porque esas máquinas cumplirán nuestras órdenes». «Estarán bajo nuestro control».

Meta ya ha integrado la IA en muchos de sus servicios, incluida la seguridad, la protección y la moderación de contenido, y se integrará más profundamente en las aplicaciones de realidad virtual y aumentada de la compañía en el futuro, dijo LeCun.

Con el tiempo, todos tendrán acceso a asistentes de inteligencia artificial que nos ayudarán a gestionar nuestra vida diaria. «La interacción de todos con el mundo digital estará mediada por sistemas de inteligencia artificial. En otras palabras, ya no utilizaremos motores de búsqueda».