CONECTATE CON NOSOTROS

Ciencia y Tecnología

Descubrieron señales de radio en una llamarada solar, similares a los latidos del corazón

Son sonidos rítmicos con características parecidas a la frecuencia cardíaca. Los astrónomos suelen asociarlos a las erupciones solares, pero en esta ocasión la detección provino de otro evento

eltribuno

Publicado

en

El espacio se ha convertido en noticia constante en estos meses. Avistamientos, fenómenos novedosos y la ciencia que, a la par, no deja de producir conocimiento. Ahora, un grupo de astrónomos estadounidenses están examinando otra señal extraña proveniente del espacio.

Esta vez, dicen que las señales de radio tienen un extraño patrón “similar a los latidos del corazón” y provienen de una fuente dentro de la atmósfera del Sol al detectar estos indicios dentro de una llamarada solar de clase C a más de 5.000 kilómetros sobre la superficie del Sol.

Localizar y estudiar las señales solares podría ayudar a los astrónomos a comprender las propiedades físicas que impulsan las erupciones solares, las explosiones más poderosas del sistema solar, para liberar explosiones gigantes de energía. El estudio a cargo de profesionales de la Universidad de Nanjing en China y del Instituto de Tecnología de Nueva Jersey en Estados Unidos se publicó en la revista Nature Communications.

Las tormentas solares suelen viajar por todo el Sistema Solar y golpera a los planetas (NASA)Las tormentas solares suelen viajar por todo el Sistema Solar y golpera a los planetas (NASA)

“El descubrimiento es inesperado -comentó Sijie Yu, astrónomo del Centro de Investigación Solar-Terrestre del Instituto de Tecnología de Nueva Jersey-. Este patrón de latidos es importante para comprender cómo se libera y disipa la energía en la atmósfera del Sol durante estas explosiones increíblemente poderosas. Sin embargo, el origen de estos patrones repetitivos, también llamados pulsaciones cuasi-periódicas, ha sido durante mucho tiempo un misterio y una fuente de debate entre los físicos solares”.

Las ráfagas de radio solares son una fuerte liberación de ondas de radio del Sol. Los astrónomos comúnmente los asocian con las erupciones solares. Cuando se sueltan, emiten señales con patrones repetitivos.

Las señales del patrón fueron localizadas mientras se estudiaban las observaciones de microondas de un evento de erupción solar el 13 de julio de 2017, utilizando el telescopio Expanded Owns Valley Solar Array (EOVSA) que mira al Sol en una frecuencia de microondas de más de 1 a 18 gigahercios. El mismo es sensible a la radiación liberada por electrones de alta energía en la atmósfera del Sol. Los electrones de alta energía se energizan especialmente cuando hay un evento de erupción solar.

La tormenta magnética es el resultado de la llegada de viento solar a la Tierra (NASA)La tormenta magnética es el resultado de la llegada de viento solar a la Tierra (NASA)

“Al observar la llamarada solar, el equipo notó ráfagas de radio con un patrón de señal que se repetía cada 10 a 20 segundos. El patrón era como un latido del corazón”, indicó Yuankun Kou, estudiante de doctorado en la Universidad de Nanjing en China y autor principal del estudio.

Más de un “latido” El equipo encontró una fuerte señal de pulsación cuasi-periódica (QPP) en la corriente eléctrica que se extendía más de 25.000 kilómetros a través de la región de llamaradas del núcleo de la erupción, donde las líneas opuestas del campo magnético hicieron contacto antes de romperse y volver a conectarse. Esta actividad acumuló energía que sería, según entienden los científicos, la que encendería la llamarada solar. La señal de un latido del corazón habría sido lo suficientemente interesante, pero los investigadores pronto encontraron una segunda que pulsaba de manera similar. “Es probable que las señales se originen a partir de reconexiones magnéticas casi repetitivas en la hoja de corriente de destello -explica Yu-. Esta es la primera vez que se detecta una señal de radio cuasi periódica ubicada en la región de reconexión. Esta detección puede ayudarnos a determinar cuál de las dos fuentes causó la otra”.

Usando el telescopio EOVSA, los investigadores midieron el espectro de energía de los electrones en las dos fuentes de radio. “Las imágenes espectrales de EOVSA nos dieron nuevos diagnósticos resueltos espacial y temporalmente de los electrones no térmicos de la llamarada -explicó el coautor Bin Chen, profesor asociado de física en el Instituto de Tecnología de Nueva Jersey-. Encontramos que la distribución de electrones de alta energía en el QPP principal varía en fase con la de la fuente QPP secundaria en la hoja de corriente electrónica. Esto es un indicio de que las dos fuentes de QPP están estrechamente relacionadas”.

Al auroras son la expresión más evidente de la radiación solar que golpea nuestra atmósferaAl auroras son la expresión más evidente de la radiación solar que golpea nuestra atmósfera

El equipo también creó un modelo numérico 2.5D de la llamarada solar utilizando observaciones tomadas del satélite GOES de la Administración Nacional Oceánica y Atmosférica. El satélite puede medir las emisiones de rayos X suaves de la atmósfera del Sol en dos bandas de energía diferentes. Los resultados muestran islas magnéticas o estructuras similares a burbujas que se forman en la hoja actual y se mueven casi periódicamente hacia la región de la llamarada.

“La aparición de islas magnéticas juega un papel clave en el ajuste de la tasa de liberación de energía durante esta erupción -explica Xi Cheng, profesor de astronomía en el Instituto de Tecnología de Nueva Jersey-. Este proceso de liberación de energía casi periódico conduce a una producción repetitiva de electrones de alta energía, que se manifiestan como QPP en las longitudes de onda de microondas y rayos X suaves”.

Según los autores del estudio, los hallazgos brindan una nueva perspectiva sobre lo que impulsa a que ocurran las erupciones solares en primer lugar. “Este estudio impulsa un nuevo examen de las interpretaciones de los eventos QPP informados anteriormente y sus implicaciones en las erupciones solares”, concluye Yu.

Continuar Leyendo

Argentina

Rosarino inventó un kayak inflable para llevar en una mochila

Avatar

Publicado

en

Walter Sidler, es ingeniero industrial nacido en Rosario, quien tras mudarse a Roldán se encontró con el inconveniente de tener que viajar varios kilómetros con el kayak para poder despuntar el vicio de remar en el río Paraná. Este problema motivó a la investigación y finalmente creación del Kamarán, un kayak inflable que permite se transportado cómodamente en una mochila y que ya tiene premios al buen diseño e innovación en el mercado. En diálogo con Sergio Scheffer en el programa Media Mañana, Sidler, dio detalles del proceso que llevó desde la idea hasta su creación.

Continuar Leyendo

Ciencia y Tecnología

Google Cloud presenta nuevas herramientas de seguridad basadas en Inteligencia Artificial

Avatar

Publicado

en

Google Cloud presenta nuevas herramientas para detectar y responder a amenazas Utiliza la IA para simplificar la seguridad en la nube

 

Google Cloud presenta nuevas herramientas de seguridad basadas en Inteligencia Artificial

Google Cloud anunció hoy la disponibilidad de nuevas herramientas de seguridad basadas en Inteligencia Artificial (IA) para ayudar a las empresas a proteger sus datos y aplicaciones en la nube.

Según un informe del equipo de ciberseguridad de Google, durante el primer trimestre de 2023, más del 60% de las problemáticas relacionadas a seguridad en la nube tuvieron que ver con problemas de credenciales y accesos, el 19% con configuraciones incorrectas y el 2,4% involucraron software vulnerable.

Para abordar estos desafíos, Google Cloud está apostando por la IA, que puede ayudar a las empresas a ir un paso por delante de los atacantes gracias a un análisis casi en tiempo real de los resultados de seguridad.

unnamed_2_copy_copy_copy_copy_copy_copy_copy_copy_copy_copy_copy.jpg

Las nuevas herramientas de Google Cloud incluyen:

  • Chronicle Security Operations: un paquete de software basado en la nube que brinda mayor velocidad en la detección, investigación y respuesta a las amenazas. Esta solución unifica la gestión de sucesos e información de seguridad con las soluciones de orquestación, automatización y respuesta de seguridad previamente adquiridas por Google (Siemplify).
  • Security Command Center: traduce gráficos de ataques complejos a explicaciones de texto simple sobre la exposición a las amenazas y simula posibles rutas de ataque, resaltando los recursos afectados y las mitigaciones recomendadas antes de que los atacantes se aprovechen de las vulnerabilidades.
  • Inteligencia de amenazas de Mandiant: permite acceder a información confiable optimizada por inteligencia artificial sobre amenazas y ofrece acciones personalizadas según cada caso para frenar ataques y mitigar riesgos.

Estas nuevas herramientas están disponibles en versión preliminar y se espera que estén disponibles de forma general este año.

«La seguridad es nuestra máxima prioridad en Google Cloud», dijo Thomas Kurian, CEO de Google Cloud. «Estamos comprometidos a ayudar a las empresas a proteger sus datos y aplicaciones en la nube, y la IA es una herramienta fundamental para lograrlo».

Continuar Leyendo

Ciencia y Tecnología

ChatGPT: a un año de su creación, su desarrollador Sam Altman regresa recargado a OpenAI

Avatar

Publicado

en

El 30 de noviembre, los ingenieros informáticos liderados por Sam Altman, despedido hace una semana y reincorporado casi en el acto, celebrarán el primer aniversario de una herramienta fundamental de la cuarta revolución industrial.

Sam Altman, despedido y vuelto a reincorporar en la empresa OpenAI responsable del ChatGPT.
Sam Altman, despedido y vuelto a reincorporar en la empresa OpenAI responsable del ChatGPT.

La criatura informática que cumplirá un año tuvo un 2023 vertiginoso. El universo de las ciencias de la información tiene un antes y un después del 30 de noviembre de 2022 cuando la empresa tecnológica OpenAI lanzó, para toda la comunidad, un nuevo modelo de lenguaje de inteligencia artificial GPT-4.

Desde entonces, en las sociedades donde se introdujo esta nueva herramienta informática, han comenzado a mutar en un proceso que abre innumerables posibilidades de cambios en los sectores del trabajo, el ocio, la cultura, la ciencia y la política, y se posiciona como uno de los pilares de la cuarta revolución industrial a la que asiste la Humanidad que le permitirá generar un boom de productividad y bienestar económico donde se aplique.

Si bien la Inteligencia artificial es una de las vigas en las que se sostiene el andamiaje de esta nueva etapa superior del capitalismo, no es la única, la digitalización de los servicios, de las manufacturas industriales a través de la robotización y de la Internet de las Cosas, están provocando, de manera sigilosa, un cambio en el statu quo en todo el mundo sin distinción de regímenes políticos, credos o niveles de vida de las sociedades.

En ese contexto, el debate pasa, a un año de la creación del ChatGPT, por dilucidar si la creación de mentes tan brillantes como las de Altman pero, también, las de Mira Murati, directora de tecnología de OpenAI; del científico jefe de la start up, Ilya Suskever; la de Greg Brockman, presidente de la compañía; o la de Geoffrey Hinton, padrino de la inteligencia artificial que junto a su equipo desarrolló el corazón de los chatbots como el que revolucionó la sociedad hace un año, no está dando vida a un nuevo monstruo similar al creado por el Dr. Frankenstein en la novela de Mary Shelley.

Las alarmas se acaban de disparar luego del insólito desenlace del despido y posterior reincorporación a la empresa OpenAI de su alma mater, Sam Altman.

La razón de una decisión laboral que trascendió el ámbito de las empresas tecnológicas e impactó en todo el mundo se debió a que “varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad”, según testimonios recabados por Reuters.

Se habla en voz baja de un proyecto denominado Q star (Q*) que daría un impulso extra a la inteligencia artificial general que tendría implicancias decisivas en el ámbito laboral porque operaría como sistemas autónomos que superan, por lejos, a los humanos en la mayoría de las tareas económicamente importantes.

La nueva tecnología funciona como la búsqueda frenética de oro y la mayoría de los emprendedores informáticos avanzan y comercializan sus desarrollos sin comprender las consecuencias y el impacto social que puedan tener.

Microsoft no soportó tanta mesura de la junta directiva de OpenAI, y, Satya Nadella, su director ejecutivo, ofreció sus centros de investigación para el equipo de Altman si era definitivamente desplazado.

La presión surtió efecto y Sam Altman regresó recargado tras cinco días de estar cesanteado. Y, lo hizo, con nuevos integrantes de la junta directiva, entre ellos, Larry Summers, ex secretario del Tesoro de Estados Unidos y Bret Taylor, ex director de Salesforce Inc.

Ahora bien, la polémica por el peligro del desarrollo de la inteligencia artificial continúa.

Precisamente, el pionero de la IA, Geoffrey Hinton, reconoció que renunció a su puesto ejecutivo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA.

Para que quede en blanco sobre negro, la profundidad de la polémica por los riesgos de la IA, Hinton está arrepentido de la creación de su vida.

En recientes declaraciones al New York Times afirmó “Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”.

Para Kevin Roose, autor del best seller, Futureproof: 9 Rules for Humans in the Age of Automation, (nueve reglas para los humanos en la era de la automatización), “Por el lado positivo, GPT-4 es un poderoso motor para la creatividad, y no hay manera de conocer los nuevos tipos de producción científica, cultural y educativa que podría impulsar”.

El experto reseña como OpenAI se asoció a organizaciones como Be My Eyes, una start up que fabrica tecnología para personas con discapacidades visuales, o Khan Academy, para crear tutores de inteligencia artificial para estudiantes, pero también reconoce los riesgos.

Y, como siempre, lo que más se teme es a lo desconocido.

Una extraña característica de los actuales modelos de lenguaje de inteligencia artificial es que a menudo actúan de maneras que sus creadores no anticipan, o adquieren habilidades para los que no fueron programados específicamente”, afirma Roose.

En síntesis, no está claro hasta donde pueden desarrollarse de manera autónoma porque, por ejemplo, antes que OpenAI pusiera frenos para que el ChatGPT no ofreciera datos de como comprar un arma de manera ilegal, el algoritmo ya lo había hecho. Los técnicos debieron solucionar este ítem para que no responda si alguien pregunta por ello.

En ese sentido, las idas y vueltas en torno a la permanencia de Sam Altman al frente de OpenAI, enseñan a la opinión pública el estado actual de un debate, de incierto final, en torno a los riesgos inherentes al desarrollo de la inteligencia artificial.

En Argentina, el experto Gustavo Guaragna, CEO de Snoop Consulting explicó, “Respecto al producto, hay que entender que ChatGPT es solo uno de los productos o una de las cosas que se visualizan, pero que el objetivo principal de la compañía de OpenAI no es el chat, sino que es construir una inteligencia artificial general y, a partir de ella, una superinteligencia, es decir, una inteligencia que sea superior al ser humano y hacerlo dentro de un marco de seguridad. Las dos personas que fueron desplazadas del directorio eran las dos únicas mujeres que había en el directorio de OpenAI y eran quienes principalmente velaban por el tema de que el desarrollo y el avance de la tecnología no se puedan volver en contra de la humanidad”.

Este debate que recuerda a aquel de “apocalípticos e integrados” de Umberto Eco, sólo que el semiólogo italiano se refería a la influencia de los medios masivos de comunicación en la sociedad, ha llevado a que el emprendedor y tecnólogo, Santiago Bilinkis, escribiera un libro, “Artificial”, sobre la IA, en colaboración con el neurocientífico Mariano Sigman.

Para el fundador de Officenet, el mundo se mueve a un ritmo muy veloz. “Internet tiene tres décadas, y todavía hay muchas empresas que están intentando adaptarse a la transformación digital. Por el contrario, la IA, no nos dará ese tiempo. Este cambio se dará en los próximos 5 a 10 años, y las empresas que no se adapten tendrán serios problemas”.

En recientes declaraciones al diario La Nación, Bilinkis se mostró preocupado por una arista biológica que impacta en los individuos ante el desarrollo de la IA.

“Cada vez que delegamos algo en una tecnología, perdemos habilidades y dejamos de valernos por nosotros mismos. Si delegamos en las máquinas las tareas cognitivas, corremos el riesgo de perder la capacidad de pensar. Porque la inteligencia es la habilidad que distingue a los humanos frente a otras especies y cuando la máquina empieza hacer aquello en lo que nos destacamos, el tema nos interpela”, advirtió.

Sin embargo, el tiempo es veloz y la competencia se desató. Meta, Google, Microsoft, X.AI y OpenAI están inmersos en una competencia para dominar el desarrollo de los denominados grandes modelos de lenguaje, LLM- large language models, que vienen acaparando las inversiones tecnológicas desde la irrupción de ChatGPT.

Para Gustavo Guaragna, lo que sucedió con OpenAI se enmarca en la competencia  de titanes en Silicon Valley, «…al haberse estructurado en una compañía de mercado orientada al profit, a la ganancia, y que tiene que mostrar resultados por el profit, está en una carrera que otras empresas no la están, hay que señalar esto, de liberar productos y presionando a todo el resto del mercado a sacar productos de tecnología que quizás no han sido lo suficientemente probadas o no estén lo suficientemente seguras”.

Un pedido de prudencia, un camino difícil de adoptar, por las posibilidades de dominio que otorga la revolución tecnológica que estamos viviendo.

Una revolución que tendrá un impacto ético si se confirma el vaticinio del filósofo Yuval Noah Harari, “la inteligencia artificial está redefiniendo los contornos de nuestra civilización y (…) después de todo, no somos la cúspide de la creación”.

Continuar Leyendo

Tendencias