Conéctate con nosotros

Ciencia & Ambiente Ciencia & Tecnología

Especialistas advierten sobre el mal uso de la Inteligencia Artificial.

Publicado

En

De acuerdo con Juan Graña, analista de datos senior especializado en temas de comunicación y desinformación, estas advertencias se clasifican, a grandes rasgos, en dos grupos: uno que advierte sobre los peligros para la sociedad en general y otro más apocalíptico que se enfoca en el colapso de la humanidad.

1. Inteligencia artificial consciente

En julio del año pasado (2022) un ingeniero de Google fue despedido por la empresa debido a una cuestión que en esos momentos no causaba tanto impacto como ahora en el público en general.

Blake Lemoine, quien es esos momentos era ingeniero de software de Google, afirmó que una tecnología de conversación llamada LaMDA (o “Modelo de Lenguaje para Aplicaciones de Diálogo”) había alcanzado un nivel de consciencia tras intercambiar miles de mensajes con ella.

La autoconsciencia de las máquinas —que estaría en el grupo de riesgo para la humanidad que explicó Graña— pertenece al terreno de la ciencia ficción desde hace décadas, pero también es tema del campo de la IA. No obstante, como Google Cloud menciona en su sitio web, este nivel en el que un sistema sería consciente de su propia existencia es algo que no existe hasta la fecha.

Tras las declaraciones de Lemoine, la comunidad de la IA en general sostuvo que LaMDA no está cerca de un nivel de consciencia.

“Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente”, dijo Gary Marcus, fundador y director general de Geometric Intelligence,a CNN Business.

Pese a ello, con el desarrollo actual de la IA, algunos se han alarmado más que otros, como veremos en los siguientes casos.

2. Pausa de seis meses

Febrero de 2023 debe quedar en el calendario histórico de la tecnología, pues fue el mes en que la inteligencia artificial comenzó su masificación y nombres como ChatGPT, OpenAI, Bard o Bing se popularizaron.

“Antes era una cuestión que sólo alguien con un programador o con ciertos conocimientos técnicos podía hacer; hoy es algo que está al alcance de la mano de una persona con el suficiente tiempo para hacer las preguntas que tienes que hacer para programarlo”, indicó Graña.

Desde entonces, la IA ha escalado de forma abrupta, a tal punto que desencadenó una de las advertencias más amplias hasta la fecha.

Profesores, investigadores y lideres del mundo de la tecnolocía, entre ellos Elon Musk, pidieron en marzo que los laboratorios de inteligencia artificial (IA) detengan el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses, citando “riesgos profundos para la sociedad y la humanidad”.

Por medio una carta, que fue publicada por Future of Life Institute —una organización sin fines de lucro respaldad por Musk —, los firmantes dijeron que la pausa debería aplicarse a los sistemas de IA “más poderosos que GPT-4”, que es la versión más actual y poderosa de ChatGPT.

También dijeron que los expertos independientes deberían usar la pausa propuesta para desarrollar e implementar conjuntamente un conjunto de protocolos compartidos para herramientas de IA que sean seguras “más allá de toda duda razonable”.

3. Cambios inevitables en el mundo laboral

Una de las advertencias más sonadas respecto a la IA es en el campo de los empleos.

Más que una alarma apocalíptica, esta advertencia se centra en el grupo de los riesgos de la sociedad, pues plantea un escenario inevitable: el mundo laboral se va a transformar y no hay vuelta atrás, por lo que las instituciones y la población deben estar preparadas en conjunto para ello.

En marzo, economistas de Goldman Sachs señalaron que hasta 300 millones de empleos de tiempo completo en todo el mundo podrían automatizarse de alguna manera con la nueva ola de inteligencia artificial.

Se espera que los trabajadores administrativos y los abogados sean los más afectados, dijeron los economistas, en comparación con el “poco efecto” que la IA tendrá en las ocupaciones físicas o al aire libre, como los trabajos de construcción y reparaciones en general.

Si bien los lugares de trabajo pueden cambiar, la adopción generalizada de la IA podría, en última instancia, aumentar la productividad laboral y aumentar el PIB mundial en un 7% anual durante un periodo de 10 años, según Goldman Sachs.

Por su parte, el  Foro Económico Mundial (WEF por sus siglas en inglés) indicó en un informe publicado este mes que empresas de todo el mundo esperan una pérdida neta de 14 millones de empleos en los próximos cinco años, esto a medida que se debilita la economía y se impulsa a las tecnologías de IA.

Muchos factores alimentarán la agitación del mercado laboral durante el periodo señalado por el WEF. El cambio a sistemas de energía renovable será un motor poderoso para generar empleos, mientras que un crecimiento económico más lento y una inflación alta generarán pérdidas. Asimismo, la prisa por implementar sistemas de inteligencia artificial servirá como una fuerza tanto positiva como negativa.

4. Entre prohibiciones y oportunidades

Algunas advertencias, que se mueven en los terrenos de ambos grupos mencionados por Graña, han acabado en prohibiciones y también en llamados a realizar cambios.

Por ejemplo, en marzo el Gobierno de Italia hizo sonar las alarmas respecto a ChatGPT por una preocupación respecto a una posible violación de la protección de datos. Esto llevó a la administración a bloquear el acceso a la herramienta de OpenAI hasta que se respete la regulación prevista.

También en este sentido, recientemente Samsung prohibió de manera temporal el uso de inteligencia artificial generativa en los dispositivos de la empresa.

La decisión se tomó después de que su personal usó IA generativa, como ChatGPT, en el dispositivo de su empresa a principios de abril, lo que provocó preocupaciones de seguridad, dijo un vocero de Samsung. La empresa realizó una encuesta al respecto, en la que el 65% de los encuestados estuvo de acuerdo en que el uso de dicha tecnología representa un riesgo para la seguridad.

Pero, así como hay prohibiciones, hay advertencias que abren paso a las oportunidades.

En abril, el artista alemán Boris Eldagsen rechazó el premio del concurso de fotografía Soni World Photography Award tras revelar que la obra que presentó, llamada “Pseudomnesia: The Electrician”, había sido generada por inteligencia artificial.

Los organizadores del concurso afirmaron que sabían que había algo de inteligencia artificial involucrada, pero señalaron que hubo un intento “deliberado” por engañarlos. Eldagsen dijo que esperaba que sus acciones abrieran la conversación en torno a este asunto y llevaran a “concursos separados para imágenes generadas por IA”.

“Las imágenes de inteligencia artificial y la fotografía no deberían competir entre sí en un premio como este. Son ámbitos diferentes. La inteligencia artificial no es fotografía. Por lo tanto, no aceptaré el premio”, agregó.

5. La advertencia del “padrino de la IA”

Mayo empezó de forma vertiginosa en el terreno de la inteligencia artificial.

Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, confirmó que dejó su puesto en Google la semana pasada para alertar sobre los “peligros” de la tecnología que él mismo ayudó a desarrollar.

El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales.

Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial, más que por un deseo de criticar específicamente a Google.

En una entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos “ya no serán capaces de saber qué es verdad”. También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.

“La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían”, dijo Hinton en la entrevista. “Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”.

En conversación con Jake Tapper de CNN, Hinton señaló que si la inteligencia artificial “llega a ser mucho más inteligente que nosotros, será muy buena manipulando porque lo habrá aprendido de nosotros”.

Hinton le dijo a CNN que no tiene claro cómo resolver el problema en este momento y que la solución es algo para lo cual hay que trabajar, teniendo en cuenta, además, que el desarrollo de esta tecnología no se puede detener: “No creo que podamos detener el progreso. No firmé la petición diciendo que deberíamos dejar de trabajar en IA porque si la gente en Estados Unidos se detuviera, la gente en China no lo haría”.

@CNN

/Fuente de imagen: Archivos google

Ciencia & Ambiente Ciencia & Tecnología

China lanza sonda Chang’e-6 para recoger muestras de la cara oculta de la Luna

Publicado

En

La sonda lunar china Chang’e-6 ha entrado exitosamente en su órbita circunlunar, informó hoy miércoles la Administración Nacional del Espacio de China.

La Administración Nacional del Espacio de China, CNSA, por sus siglas en inglés, informó del lanzamiento de la sonda lunar Chang’e-6 desde el Sitio de Lanzamiento Espacial de Wenchang, en la costa de la sureña provincia insular china de Hainan.

La misión tiene como objetivo recoger y devolver muestras de la misteriosa cara oculta de la Luna, y será la primera de su tipo en la historia de la exploración lunar humana. Asimismo, la CNSA agregó que el cohete Gran Marcha-5 Y8 transportó la sonda Chang’e-6, cargado con propelente criogénico de hidrógeno líquido y oxígeno líquido. La nave espacial Chang’e-6 consta de un orbitador, un módulo de aterrizaje, otro de ascenso y un tercero de retorno. Además, lleva consigo instrumentos científicos de Francia, Italia y la Agencia Espacial Europea, así como un pequeño satélite de Pakistán. Numerosos invitados provenientes de 12 países presenciaron el lanzamiento.

A las 10:12 (hora de Beijing) del miércoles, Chang’e-6 cumplió con éxito un procedimiento de frenado cercano a la Luna antes de entrar en la órbita circunlunar, según la misma fuente.

El procedimiento es un control orbital clave para la sonda durante su vuelo. El frenado hace que su velocidad relativa sea inferior a la velocidad de escape lunar, lo que le permite ser capturada por la gravedad de la Luna y volar alrededor de ella.

Apoyada por el satélite de retransmisión Queqiao-2, Chang’e-6 ajustará posteriormente la altitud y la inclinación de la órbita alrededor del astro y elegirá un momento adecuado para llevar a cabo la separación entre la combinación del orbitador con el módulo de retorno y la combinación del módulo de aterrizaje con el módulo de ascenso.

Esta última combinación efectuará a continuación un aterrizaje suave sobre la cuenca Aitken del Polo Sur para realizar la misión de muestreo y retorno en la cara oculta del satélite natural de la Tierra, de acuerdo con lo previsto.

@spanish.news.cn

@espanol.cgtn.com

/Imagen principal: Xinhua/Cortesía/

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

La advertencia de Elon Musk: “Podría haber un 20% de posibilidades de que la IA destruya la humanidad”

Publicado

En

Una gran cantidad de científicos y expertos en la materia han declarado que se trata de una posibilidad real. Conocé los detalles.

EL magnate y CEO de Tesla, Elon Musk, está muy interesado en las nuevas tecnologías. En un seminario llevado a cabo en mayo expresó lo siguiente: “Creo que hay algunas posibilidades de que la IA acabe con la humanidad. Coincido con Geoff Hinton en que debe ser sobre el 10 o 20%, o una cifra similar”.

La Inteligencia Artificial esta creciendo cada vez más, día a día. El impacto de éstas en nuestras vidas es toda una incógnita, ya que si bien puede paliar algunos de los problemas más cotidianos de la humanidad, como la soledad, también destruir puestos de trabajo, o según Musk, exterminar a la civilización humana.

Elon Musk afirmó en un seminario llamado ‘Great AI Debate’ que el riesgo de que la Inteligencia Artificial destruya a la humanidad se encuentra en un porcentaje del 10 al 20%, comentando que “los posibles beneficios compensan los escenarios negativos“.

Si bien no reveló cómo hizo los cálculos, el cálculo p(doom), P = posibilidades; doom = condena, no necesita ningún método de averiguación determinado. Se trata de una variable informal sin base científica que busca explicar la posibilidad de que la humanidad sea aniquilada por un invento o hallazgo.

Es difícil establecer una cifra exacta de si la extinción es o no una certeza debido a su informalidad. A pesar de eso, las predicciones suelen ir desde el 5% al 50%, siendo la primera algo probable y la última un riesgo exageradamente alto.

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

El telescopio gigante chino FAST detecta más de 900 púlsares

Publicado

En

El radiotelescopio chino FAST de antena única, el más grande del mundo, logró identificar hasta el momento más de 900 púlsares, según informó la agencia ‘Xinhua’, citando a astrónomos de ese país. “Hasta la fecha el radiotelescopio FAST detectó más de 900 púlsares”, indicó el medio que cita al Observatorio Nacional de China.

Los púlsares son estrellas de neutrones que giran extremadamente rápido y que emiten pulsos de radiación electromagnética a intervalos regulares, provienen de la explosión de supernovas a partir de los núcleos de las estrellas masivas que mueren.

Se considera que gracias a su alta densidad y rápido giro, los púlsares ofrecen a los investigadores condiciones ideales para estudiar las leyes de la física.

@Sputnik.

/Imagen principal: Sputnik/

Continuar leyendo

Continuar leyendo