CONECTATE CON NOSOTROS

Ciencia y Tecnología

Un Tesla fuera de control mató a dos personas en China

Avatar

Publicado

en

El conductor intentaba aparcar su Model-Y cuando el vehículo salió a toda velocidad por dos kilómetros, chocando contra dos motocicletas y dos bicicletas

Un hombre de 55 años identificado como Zhan protagonizó un accidente fatal en Chaozhou, provincia de Guangdong, en el sur de China, cuando perdió el control de su auto Tesla, dejando dos muertos y tres heridos. Mientras las autoridades investigan el hecho, la compañía de Elon Musk aseguró que colaborará en las pesquisas.

El hecho, ocurrido el pasado 5 de noviembre, se saldó con la muerte de un motociclista y una estudiante de secundaria, según informó la cadena Jimu News, que publicó un video en el que se ve cómo un cauto Tesla modelo Model-Y circula a gran velocidad totalmente fuera de control y choca contra otros vehículos y un ciclista.

“La policía está buscando actualmente una agencia de evaluación de terceros para identificar la verdad detrás de este accidente y proporcionaremos activamente cualquier asistencia necesaria”, prometió el fabricante de vehículos eléctricos a la agencia Reuters mientras crece la polémica.

China es el segundo mercado más grande de Tesla, y el accidente -y un posible fallo en el software- fue uno de los principales temas de tendencia en la plataforma de medios sociales Weibo el domingo.

La policía de tráfico local informó que la causa del incidente en la ciudad de Chaozhou aun no ha sido identificada pero familiares del conductor involucrado aseguraron que tuvo problemas con el pedal del freno cuando estaba a punto de aparcar frente a su tienda familiar.

En las imágenes se puede observar el momento en que el conductor intenta estacionar su auto Model-Y. Pero inmediatamente pierde el control y comienza a circular a gran velocidad durante dos kilómetros, chocando contra dos motocicletas y dos bicicletas.

La familia de Zhan sigue esperando los resultados del peritaje del vehículo.

Tesla dijo que los videos muestran que las luces de freno del coche no estaban encendidas cuando iba a toda velocidad y que sus datos mostraban problemas como que no se pisaban los frenos durante todo el recorrido del vehículo.

Por su parte, la policía de tráfico descartó la posibilidad de que Zhan condujera bajo los efectos de las drogas y el alcohol, y señaló que el vehículo sería sometido a pruebas.

Un usuario de Weibo, identificado como Zhanqiubi, y declarado como familiar del propietario del Tesla implicado, dijo que Zhan no pudo aparcar porque el pedal del freno “estaba duro y no pudo detener el vehículo después de pulsar el botón de aparcamiento”. Cuando el auto se puso en marcha, empezó a acelerar repentinamente y ya no pudo frenar.

Tesla, empresa de Elon Musk, dijo que colaborará con las autoridades chinas (REUTERS/Aly Song)Tesla, empresa de Elon Musk, dijo que colaborará con las autoridades chinas (REUTERS/Aly Song)

La Corporación de Radiodifusión de Jiangsu informó el 7 de noviembre en Weibo que un propietario de un Tesla, identificado como Jing, en Nanjing, provincia de Jiangsu, al este de China, también perdió el control de su automóvil eléctrico durante unos 1,8 kilómetros y fue frenado a la fuerza al tocar los bordes de las carreteras y el puente.

El centro de Tesla en Nanjing indicó que la velocidad máxima alcanzó los 150 kilómetros por hora durante el accidente, y que el interruptor eléctrico estaba pisado sin frenos, mientras que Jing subrayó que había pisado los frenos.

Continuar Leyendo

Argentina

Rosarino inventó un kayak inflable para llevar en una mochila

Avatar

Publicado

en

Walter Sidler, es ingeniero industrial nacido en Rosario, quien tras mudarse a Roldán se encontró con el inconveniente de tener que viajar varios kilómetros con el kayak para poder despuntar el vicio de remar en el río Paraná. Este problema motivó a la investigación y finalmente creación del Kamarán, un kayak inflable que permite se transportado cómodamente en una mochila y que ya tiene premios al buen diseño e innovación en el mercado. En diálogo con Sergio Scheffer en el programa Media Mañana, Sidler, dio detalles del proceso que llevó desde la idea hasta su creación.

Continuar Leyendo

Ciencia y Tecnología

Google Cloud presenta nuevas herramientas de seguridad basadas en Inteligencia Artificial

Avatar

Publicado

en

Google Cloud presenta nuevas herramientas para detectar y responder a amenazas Utiliza la IA para simplificar la seguridad en la nube

 

Google Cloud presenta nuevas herramientas de seguridad basadas en Inteligencia Artificial

Google Cloud anunció hoy la disponibilidad de nuevas herramientas de seguridad basadas en Inteligencia Artificial (IA) para ayudar a las empresas a proteger sus datos y aplicaciones en la nube.

Según un informe del equipo de ciberseguridad de Google, durante el primer trimestre de 2023, más del 60% de las problemáticas relacionadas a seguridad en la nube tuvieron que ver con problemas de credenciales y accesos, el 19% con configuraciones incorrectas y el 2,4% involucraron software vulnerable.

Para abordar estos desafíos, Google Cloud está apostando por la IA, que puede ayudar a las empresas a ir un paso por delante de los atacantes gracias a un análisis casi en tiempo real de los resultados de seguridad.

unnamed_2_copy_copy_copy_copy_copy_copy_copy_copy_copy_copy_copy.jpg

Las nuevas herramientas de Google Cloud incluyen:

  • Chronicle Security Operations: un paquete de software basado en la nube que brinda mayor velocidad en la detección, investigación y respuesta a las amenazas. Esta solución unifica la gestión de sucesos e información de seguridad con las soluciones de orquestación, automatización y respuesta de seguridad previamente adquiridas por Google (Siemplify).
  • Security Command Center: traduce gráficos de ataques complejos a explicaciones de texto simple sobre la exposición a las amenazas y simula posibles rutas de ataque, resaltando los recursos afectados y las mitigaciones recomendadas antes de que los atacantes se aprovechen de las vulnerabilidades.
  • Inteligencia de amenazas de Mandiant: permite acceder a información confiable optimizada por inteligencia artificial sobre amenazas y ofrece acciones personalizadas según cada caso para frenar ataques y mitigar riesgos.

Estas nuevas herramientas están disponibles en versión preliminar y se espera que estén disponibles de forma general este año.

«La seguridad es nuestra máxima prioridad en Google Cloud», dijo Thomas Kurian, CEO de Google Cloud. «Estamos comprometidos a ayudar a las empresas a proteger sus datos y aplicaciones en la nube, y la IA es una herramienta fundamental para lograrlo».

Continuar Leyendo

Ciencia y Tecnología

ChatGPT: a un año de su creación, su desarrollador Sam Altman regresa recargado a OpenAI

Avatar

Publicado

en

El 30 de noviembre, los ingenieros informáticos liderados por Sam Altman, despedido hace una semana y reincorporado casi en el acto, celebrarán el primer aniversario de una herramienta fundamental de la cuarta revolución industrial.

Sam Altman, despedido y vuelto a reincorporar en la empresa OpenAI responsable del ChatGPT.
Sam Altman, despedido y vuelto a reincorporar en la empresa OpenAI responsable del ChatGPT.

La criatura informática que cumplirá un año tuvo un 2023 vertiginoso. El universo de las ciencias de la información tiene un antes y un después del 30 de noviembre de 2022 cuando la empresa tecnológica OpenAI lanzó, para toda la comunidad, un nuevo modelo de lenguaje de inteligencia artificial GPT-4.

Desde entonces, en las sociedades donde se introdujo esta nueva herramienta informática, han comenzado a mutar en un proceso que abre innumerables posibilidades de cambios en los sectores del trabajo, el ocio, la cultura, la ciencia y la política, y se posiciona como uno de los pilares de la cuarta revolución industrial a la que asiste la Humanidad que le permitirá generar un boom de productividad y bienestar económico donde se aplique.

Si bien la Inteligencia artificial es una de las vigas en las que se sostiene el andamiaje de esta nueva etapa superior del capitalismo, no es la única, la digitalización de los servicios, de las manufacturas industriales a través de la robotización y de la Internet de las Cosas, están provocando, de manera sigilosa, un cambio en el statu quo en todo el mundo sin distinción de regímenes políticos, credos o niveles de vida de las sociedades.

En ese contexto, el debate pasa, a un año de la creación del ChatGPT, por dilucidar si la creación de mentes tan brillantes como las de Altman pero, también, las de Mira Murati, directora de tecnología de OpenAI; del científico jefe de la start up, Ilya Suskever; la de Greg Brockman, presidente de la compañía; o la de Geoffrey Hinton, padrino de la inteligencia artificial que junto a su equipo desarrolló el corazón de los chatbots como el que revolucionó la sociedad hace un año, no está dando vida a un nuevo monstruo similar al creado por el Dr. Frankenstein en la novela de Mary Shelley.

Las alarmas se acaban de disparar luego del insólito desenlace del despido y posterior reincorporación a la empresa OpenAI de su alma mater, Sam Altman.

La razón de una decisión laboral que trascendió el ámbito de las empresas tecnológicas e impactó en todo el mundo se debió a que “varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad”, según testimonios recabados por Reuters.

Se habla en voz baja de un proyecto denominado Q star (Q*) que daría un impulso extra a la inteligencia artificial general que tendría implicancias decisivas en el ámbito laboral porque operaría como sistemas autónomos que superan, por lejos, a los humanos en la mayoría de las tareas económicamente importantes.

La nueva tecnología funciona como la búsqueda frenética de oro y la mayoría de los emprendedores informáticos avanzan y comercializan sus desarrollos sin comprender las consecuencias y el impacto social que puedan tener.

Microsoft no soportó tanta mesura de la junta directiva de OpenAI, y, Satya Nadella, su director ejecutivo, ofreció sus centros de investigación para el equipo de Altman si era definitivamente desplazado.

La presión surtió efecto y Sam Altman regresó recargado tras cinco días de estar cesanteado. Y, lo hizo, con nuevos integrantes de la junta directiva, entre ellos, Larry Summers, ex secretario del Tesoro de Estados Unidos y Bret Taylor, ex director de Salesforce Inc.

Ahora bien, la polémica por el peligro del desarrollo de la inteligencia artificial continúa.

Precisamente, el pionero de la IA, Geoffrey Hinton, reconoció que renunció a su puesto ejecutivo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA.

Para que quede en blanco sobre negro, la profundidad de la polémica por los riesgos de la IA, Hinton está arrepentido de la creación de su vida.

En recientes declaraciones al New York Times afirmó “Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”.

Para Kevin Roose, autor del best seller, Futureproof: 9 Rules for Humans in the Age of Automation, (nueve reglas para los humanos en la era de la automatización), “Por el lado positivo, GPT-4 es un poderoso motor para la creatividad, y no hay manera de conocer los nuevos tipos de producción científica, cultural y educativa que podría impulsar”.

El experto reseña como OpenAI se asoció a organizaciones como Be My Eyes, una start up que fabrica tecnología para personas con discapacidades visuales, o Khan Academy, para crear tutores de inteligencia artificial para estudiantes, pero también reconoce los riesgos.

Y, como siempre, lo que más se teme es a lo desconocido.

Una extraña característica de los actuales modelos de lenguaje de inteligencia artificial es que a menudo actúan de maneras que sus creadores no anticipan, o adquieren habilidades para los que no fueron programados específicamente”, afirma Roose.

En síntesis, no está claro hasta donde pueden desarrollarse de manera autónoma porque, por ejemplo, antes que OpenAI pusiera frenos para que el ChatGPT no ofreciera datos de como comprar un arma de manera ilegal, el algoritmo ya lo había hecho. Los técnicos debieron solucionar este ítem para que no responda si alguien pregunta por ello.

En ese sentido, las idas y vueltas en torno a la permanencia de Sam Altman al frente de OpenAI, enseñan a la opinión pública el estado actual de un debate, de incierto final, en torno a los riesgos inherentes al desarrollo de la inteligencia artificial.

En Argentina, el experto Gustavo Guaragna, CEO de Snoop Consulting explicó, “Respecto al producto, hay que entender que ChatGPT es solo uno de los productos o una de las cosas que se visualizan, pero que el objetivo principal de la compañía de OpenAI no es el chat, sino que es construir una inteligencia artificial general y, a partir de ella, una superinteligencia, es decir, una inteligencia que sea superior al ser humano y hacerlo dentro de un marco de seguridad. Las dos personas que fueron desplazadas del directorio eran las dos únicas mujeres que había en el directorio de OpenAI y eran quienes principalmente velaban por el tema de que el desarrollo y el avance de la tecnología no se puedan volver en contra de la humanidad”.

Este debate que recuerda a aquel de “apocalípticos e integrados” de Umberto Eco, sólo que el semiólogo italiano se refería a la influencia de los medios masivos de comunicación en la sociedad, ha llevado a que el emprendedor y tecnólogo, Santiago Bilinkis, escribiera un libro, “Artificial”, sobre la IA, en colaboración con el neurocientífico Mariano Sigman.

Para el fundador de Officenet, el mundo se mueve a un ritmo muy veloz. “Internet tiene tres décadas, y todavía hay muchas empresas que están intentando adaptarse a la transformación digital. Por el contrario, la IA, no nos dará ese tiempo. Este cambio se dará en los próximos 5 a 10 años, y las empresas que no se adapten tendrán serios problemas”.

En recientes declaraciones al diario La Nación, Bilinkis se mostró preocupado por una arista biológica que impacta en los individuos ante el desarrollo de la IA.

“Cada vez que delegamos algo en una tecnología, perdemos habilidades y dejamos de valernos por nosotros mismos. Si delegamos en las máquinas las tareas cognitivas, corremos el riesgo de perder la capacidad de pensar. Porque la inteligencia es la habilidad que distingue a los humanos frente a otras especies y cuando la máquina empieza hacer aquello en lo que nos destacamos, el tema nos interpela”, advirtió.

Sin embargo, el tiempo es veloz y la competencia se desató. Meta, Google, Microsoft, X.AI y OpenAI están inmersos en una competencia para dominar el desarrollo de los denominados grandes modelos de lenguaje, LLM- large language models, que vienen acaparando las inversiones tecnológicas desde la irrupción de ChatGPT.

Para Gustavo Guaragna, lo que sucedió con OpenAI se enmarca en la competencia  de titanes en Silicon Valley, «…al haberse estructurado en una compañía de mercado orientada al profit, a la ganancia, y que tiene que mostrar resultados por el profit, está en una carrera que otras empresas no la están, hay que señalar esto, de liberar productos y presionando a todo el resto del mercado a sacar productos de tecnología que quizás no han sido lo suficientemente probadas o no estén lo suficientemente seguras”.

Un pedido de prudencia, un camino difícil de adoptar, por las posibilidades de dominio que otorga la revolución tecnológica que estamos viviendo.

Una revolución que tendrá un impacto ético si se confirma el vaticinio del filósofo Yuval Noah Harari, “la inteligencia artificial está redefiniendo los contornos de nuestra civilización y (…) después de todo, no somos la cúspide de la creación”.

Continuar Leyendo

Tendencias