Conéctate con nosotros

Ciencia & Ambiente Ciencia & Tecnología

Expertos piden pausar la investigación sobre inteligencia artificial: La humanidad está en riesgo.

Publicado

En

En una carta abierta, miles de personalidades reclamaron suspender por al menos seis meses los experimentos gigantes que “ni sus creadores pueden entender, predecir o controlar”.

El vertiginoso avance de la Inteligencia Artificial (IA) asusta incluso a sus propios creadores. Este miércoles Elon Musk, uno de los fundadores de OpenAI, y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 por posibles “grandes riesgos para la humanidad”.

La junta de firmas tiene lugar en el sitio del instituto Future Of Life, donde se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

El director de OpenAI, Sam Altman, reconoció en otras oportunidades tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques“. En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido creadas con esta tecnología.

Pero Altman no es el único que se mostró preocupado. Otros como Musk, dueño de Twitter y fundador de SpaceX y Tesla, o el historiador y pensador israelí Yuval Noah Hariri han expresado sus temores sobre una IA incontrolable que supere a los humanos.

La carta pública expresa una profunda preocupación por el avance de la IA por fuera de los límites que pueden controlar incluso los propios creadores. “En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable“, afirma el documento.

A su vez, se pregunta: “¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”.

Para los expertos firmantes, “los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

Además de Musk, Altman y Harari, hay otras importantes personalidades que firmaron la petición, como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

La carta completa.

Los sistemas de inteligencia artificial (IA) con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Según los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, aunque en los últimos meses los laboratorios de IA han estado encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos están comenzando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.

Los sistemas de IA poderosos deben desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI sobre la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a capacitar a los sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable e incluir a todos los actores clave. Si no se puede aplicar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir un moratorio.

Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deberían centrarse en hacer que los sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Al mismo tiempo, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas autoridades regulatorias capaces y dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro próspero con la IA. Después de haber logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un “verano de la IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el beneficio claro de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, sin apresurarnos sin preparación hacia un otoño.

/Imagen principal: Archivo/

Ciencia & Ambiente Ciencia & Tecnología

La advertencia de Elon Musk: “Podría haber un 20% de posibilidades de que la IA destruya la humanidad”

Publicado

En

Una gran cantidad de científicos y expertos en la materia han declarado que se trata de una posibilidad real. Conocé los detalles.

EL magnate y CEO de Tesla, Elon Musk, está muy interesado en las nuevas tecnologías. En un seminario llevado a cabo en mayo expresó lo siguiente: “Creo que hay algunas posibilidades de que la IA acabe con la humanidad. Coincido con Geoff Hinton en que debe ser sobre el 10 o 20%, o una cifra similar”.

La Inteligencia Artificial esta creciendo cada vez más, día a día. El impacto de éstas en nuestras vidas es toda una incógnita, ya que si bien puede paliar algunos de los problemas más cotidianos de la humanidad, como la soledad, también destruir puestos de trabajo, o según Musk, exterminar a la civilización humana.

Elon Musk afirmó en un seminario llamado ‘Great AI Debate’ que el riesgo de que la Inteligencia Artificial destruya a la humanidad se encuentra en un porcentaje del 10 al 20%, comentando que “los posibles beneficios compensan los escenarios negativos“.

Si bien no reveló cómo hizo los cálculos, el cálculo p(doom), P = posibilidades; doom = condena, no necesita ningún método de averiguación determinado. Se trata de una variable informal sin base científica que busca explicar la posibilidad de que la humanidad sea aniquilada por un invento o hallazgo.

Es difícil establecer una cifra exacta de si la extinción es o no una certeza debido a su informalidad. A pesar de eso, las predicciones suelen ir desde el 5% al 50%, siendo la primera algo probable y la última un riesgo exageradamente alto.

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

El telescopio gigante chino FAST detecta más de 900 púlsares

Publicado

En

El radiotelescopio chino FAST de antena única, el más grande del mundo, logró identificar hasta el momento más de 900 púlsares, según informó la agencia ‘Xinhua’, citando a astrónomos de ese país. “Hasta la fecha el radiotelescopio FAST detectó más de 900 púlsares”, indicó el medio que cita al Observatorio Nacional de China.

Los púlsares son estrellas de neutrones que giran extremadamente rápido y que emiten pulsos de radiación electromagnética a intervalos regulares, provienen de la explosión de supernovas a partir de los núcleos de las estrellas masivas que mueren.

Se considera que gracias a su alta densidad y rápido giro, los púlsares ofrecen a los investigadores condiciones ideales para estudiar las leyes de la física.

@Sputnik.

/Imagen principal: Sputnik/

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

Evento astronómico inusual podría revelar conexiones entre Stonehenge y la Luna

Publicado

En

El conocido como ‘lunasticio mayor’, que ocurre cada 18,6 años y tendrá lugar en enero de 2025, podría arrojar luz sobre la relación entre el monumento megalítico y el astro de la Tierra.

Investigadores británicos han puesto en marcha un proyecto para intentar comprender el vínculo que pueda existir entre los megalitos que conforman el monumento prehistórico de Stonehenge y los movimientos de la luna, informa el diario The Guardian.

Para este propósito, arqueólogos y astrónomos aprovecharán un fenómeno astronómico que ocurre cada 18,6 años conocido como lunasticio mayor, relacionado con el ciclo de la regresión de los nodos de la órbita lunar, que tendrá lugar en enero de 2025. En ese momento, la salida y la puesta del astro alcanzarán sus puntos más alejados en el horizonte.

Clive Ruggles, profesor emérito de arqueoastronomía de la Universidad de Leicester, señala que, si bien hay pocas dudas sobre la alienación de Stonehenge con el Sol, aún “no está tan claro” si existe “alguna conexión física entre el monumento y la luna”. No obstante, cree que no sería sorprendente que los antiguos se hubieran fijado en la luna. “La gente ha sido consciente del ciclo de las fases de la luna desde hace decenas de miles de años”, añade.

Algunos expertos consideran que quienes crearon los megalitos eran conscientes de este ‘solsticio lunar’ y pudieron haber enterrado a sus muertos en sitios en particular relacionados con este evento. Muchas de sus cremaciones se concentraron en el sureste del monumento, alineándose, a grandes rasgos, con la posición más meridional de la luna creciente, explica la organización sin ánimo de lucro English Heritage.

También se ha hipotetizado sobre el hecho de que las cuatro piedras de las estaciones —que marcan los vértices de un rectángulo perfecto en cuyo centro se encuentra el monumento— pudieron haber sido ubicadas de esa manera para marcar el lunasticio mayor. “Las piedras de las estaciones se alinean con las posiciones extremas de la luna, y los investigadores han debatido durante años si esto fue deliberado, y, en caso afirmativo, cómo se logró y cuál podría haber sido su propósito”, subraya Ruggles.

Este arqueoastrónomo explica que lo que les interesa explorar es si  los humanos de aquel entonces se dieron cuenta de que la luna salía o se ponía inusualmente al norte o al sur, y pensaran que era algo especial y “llegaran a venerar y finalmente a monumentalizar las direcciones en cuestión”. “Esta oportunidad nos permite profundizar en los antiguos misterios del monumento y su relación con los fenómenos celestes”, añadió al respecto, Jennifer Wexler, historiadora de Stonehenge para English Heritage.

Este organismo, que gestiona cientos de monumentos y lugares históricos situados en Reino Unido, tiene previsto retransmitir en directo la salida de la luna más meridional y organizar una serie de eventos a lo largo de la temporada del lunasticio. Aproximadamente un año después de esta gran parada, la luna puede salir o ponerse inusualmente al norte o al sur, lo que ofrece una buena oportunidad para realizar estudios. Durante este tiempo, se realizarán charlas, sesiones de observación de estrellas, entre otros.

@RT.

/Imagen principal: Finnbarr Webster / Gettyimages.ru/

Continuar leyendo

Continuar leyendo