Conéctate con nosotros

Ciencia & Ambiente Ciencia & Tecnología

Un nuevo telescopio en Chile para detectar asteroides peligrosos.

Publicado

En

El Observatorio Europeo Austral (ESO) y la Agencia Espacial Europea (ESA) han puesto en funcionamiento el Telescopio Test-Bed 2 (TBT2), un instrumento instalado en el observatorio de La Silla, ubicado en Coquimbo, Chile, que vigilará de cerca los asteroides que podrían suponer un riesgo para la Tierra.

El TBT2 de la ESA trabajará junto a su telescopio asociado del hemisferio norte y pondrá a prueba nueva tecnología para una futura red de telescopios, informa el Observatorio Europeo Austral en un comunicado.

El proyecto, una colaboración entre el ESO y la ESA, “es un banco de pruebas para demostrar las capacidades necesarias para detectar y hacer seguimiento de objetos cercanos a la Tierra con el mismo sistema de telescopios“, afirma Clemens Heese, jefe de la sección de Tecnologías ópticas de la ESA y líder del programa.

Si bien en la Tierra los impactos graves de asteroides peligrosos son bastante poco probables, no son imposibles. TBT forma parte del esfuerzo de varias organizaciones por obtener una descripción más completa de estos objetos y de los riesgos potenciales que plantean.

Además, este avance permite testear el hardware y el software para una futura red de telescopios que será robótica: se podrá programar las observaciones en tiempo real y, al final del día, informará de las posiciones y demás información sobre los objetos detectados.

La lista de riesgo.

En la actualidad, se conocen más de 900.000 asteroides en el Sistema Solar, de los cuales más de 25.000 son objetos cercanos a la Tierra ya que su órbita los aproxima a ella. Más de 1.000 de estos objetos están en la lista de riesgos de la ESA, lo que significa que hay que vigilarlos.

Los objetos más grandes son, afortunadamente, más fáciles de detectar, por lo que sus órbitas ya se han estudiado a fondo. Pero, los objetos pequeños y medianos son mucho más numerosos en el sistema solar y estos todavía pueden causar un grave daño, ya que quedan muchos por descubrir.

En la actualidad, los astrónomos utilizan telescopios tradicionales con un estrecho campo de visión para detectar objetos amenazadores provenientes del sistema solar. Dado que estos telescopios solo pueden observar una pequeña porción del cielo a la vez, resulta un proceso lento y tedioso.

Como parte del esfuerzo global para acelerar y mejorar esta búsqueda, la ESA está desarrollando los telescopios Flyeye, cuyo diseño está inspirado en los ojos de algunos insectos, lo que le proporciona un campo de visión mucho más amplio y le permite abarcar grandes regiones del firmamento de forma mucho más rápida que los de diseño tradicional.

Ciencia & Ambiente Ciencia & Tecnología

LuzzIA, así bautizó WhatsApp a su inteligencia artificial.

Publicado

En

La inteligencia artificial que llegó a WhatsApp ha generado grandes interrogantes frente al uso que se le da la información que allí se comparte. LuzIA, el chatbot que responde a los usuarios con tan solo tener su contacto en la aplicación, comparte cuáles son esas principales prioridades que se le dan con respecto a las políticas de privacidad.

De acuerdo con las políticas de privacidad de LuzIA, se aplica solamente a sus actividades en línea y es válida para los visitantes de su sitio web con respecto a la información que compartan y/o recojan en la aplicación. Esta política no es aplicable a ninguna información recolectada fuera de línea o por canales diferentes al sitio web.

La política de privacidad también describe cómo procesa los datos personales y otra información a través de la aplicación, al listar los tipos de información LuzIA recopila, cómo se utiliza esa información y las prácticas de compartición, ya que la inteligencia artificial es el controlador para los propósitos de esta política de privacidad. Al emplear el sitio web, el usuario ya acepta la política de privacidad y sus términos.

La información personal solicitada al usuario y las razones para hacerlo, se le explicarán en el momento.

  • Si el usuario hace un contacto directo con la plataforma, puede recibir información adicional sobre el mismo, como el nombre, dirección de correo electrónico, número de teléfono, el contenido del mensaje y/o los archivos adjuntos que se envíen y cualquier otra información que elija proporcionar.
  • Cuando el usuario se registre para una cuenta, es posible que se le solicite su información de contacto, como el nombre, nombre de la empresa, dirección, dirección de correo electrónico y número de teléfono.
  • La compañía recopila automáticamente los siguientes tipos de información cuando se utiliza la aplicación: páginas y archivos a los que se accede; hora de acceso; versión del navegador; sistema operativo; identificación del dispositivo; páginas visitadas anteriormente (si el usuario accede a la aplicación a través de un enlace); dirección IP; información de la aplicación; información del dispositivo móvil; ID de sesión; y cookies.
  • Recopila también cualquier información que se envíe a través de la funcionalidad de chat en la aplicación. Esta funcionalidad de chat usa algunos procesos automatizados para evaluar cómo pueden brindarle el mejor soporte para las solicitudes del usuario. Las conversaciones estarán encriptadas con doble proceso de encriptación. Pueden guardar un extracto de la conversación para personalizar futuras interacciones.

@Infobae

/Fuente de imagen: Archivo Google

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

Musk retiró a Twitter del acuerdo de la UE contra la desinformación.

Publicado

En

El comisionado europeo Thierry Breton señaló el viernes en un tuit que Twitter se retiró del “código de buenas prácticas” de la UE contra la desinformación, el cual tiene el apoyo comprometido de otras importantes redes sociales.

La decisión de abandonar el compromiso de combatir la información falsa al parecer constituye la medida más reciente del propietario de Twitter, el multimillonario Elon Musk, en su intención de disminuir los controles en la red social tras adquirirla el año pasado.

Musk ha revertido normas previas contra la desinformación y ha sumido en el caos el sistema de verificación y las políticas moderadoras de contenidos de la compañía en su objetivo de convertir a Twitter en una gran plaza digital.

Google, TikTok, Microsoft y Facebook así como Meta, la matriz de Instagram, figuran entre los suscriptores del código de la UE, que obliga a las compañías a medir su combate a la desinformación y a emitir informes regulares sobre sus avances.

Twitter ya había dado indicios de que no estaba dispuesta a cumplir sus compromisos.

La Comisión Europea, el brazo ejecutivo del bloque de 27 naciones, que censuró a Twitter este año por no entregar un primer informe completo sobre el código, dijo que proporcionó poca información específica y ninguna seleccionada.

Breton dijo que conforme a las nuevas disposiciones digitales que incorporan el código de buenas prácticas, combatir la desinformación será una “obligación legal”.

“Nuestros equipos estarán listos para hacer que se cumplan” las disposiciones, apuntó.

@Infobae

/Fuente de imagen: Archivo Google

Continuar leyendo

Ciencia & Ambiente Ciencia & Tecnología

Inteligencia Artificial y Salud: la OMS advierte sobre posibles riesgos.

Publicado

En

La Organización Mundial de la Salud (OMS) publicó un informe este semana que alerta sobre el uso de la Inteligencia Artificial para la salud. Los programas como ChatGPT, Bard, Bert y muchas otras imitan el razonamiento, los procesos y la producción de la comunicación humana. La OMS informa que: “El creciente uso experimental en el ámbito de la salud está generando un considerable entusiasmo en torno a su potencial para atender necesidades de salud”.

Se debe tener en cuenta los riesgos que conlleva utilizar estos modelos lingüísticos en cuanto a la información de salud, también como herramienta de apoyo a la toma de decisiones, o incluso el fomentar la capacidad de diagnóstico con el fin de proteger la salud de las personas y reducir la inequidad.

Si bien la OMS se declara partidaria de un uso adecuado de la tecnología en apoyo del personal de salud, los pacientes, la investigación y la ciencia, pero es consciente y alerta sobre las consecuencias que se tienen ante toda nueva tecnología. “La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo”, declara la OMS.

La Organización advierte que los datos utilizados por estas IA pueden estar sesgados, ser engañosa o inexacta. Existe la posibilidad de que las respuestas sean totalmente incorrectas o que contengan errores graves, especialmente las vinculadas con la salud. Además, puede que la información que brinda no protejan los datos confidenciales, en particular los datos de salud.

La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, enumerados en sus orientaciones sobre Ética y gobernanza de la inteligencia artificial en el ámbito de la salud.

Los seis principios fundamentales establecidos por la OMS son:

1) proteger la autonomía;

2) promover el bienestar y la seguridad de las personas y el interés público;

3) garantizar la transparencia, la claridad y la inteligibilidad;

4) promover la responsabilidad y la rendición de cuentas;

5) garantizar la inclusividad y la equidad;

6) promover una IA con capacidad de respuesta y sostenible.

@FiloNews

/Fuente de Imagen: Archivo Google

Continuar leyendo

Continuar leyendo