{"id":83604,"date":"2025-09-08T17:23:00","date_gmt":"2025-09-08T23:23:00","guid":{"rendered":"https:\/\/notiissa.mx\/?p=83604"},"modified":"2025-09-08T17:23:00","modified_gmt":"2025-09-08T23:23:00","slug":"el-futuro-de-la-ia-nuevo-modelo-opera-con-neuronas-al-estilo-humano","status":"publish","type":"post","link":"https:\/\/notiissa.mx\/?p=83604","title":{"rendered":"\u00bfEl futuro de la IA? Nuevo modelo opera con neuronas al estilo humano"},"content":{"rendered":"<p>El enfoque de los investigadores chinos permite entrenar el modelo utilizando vol\u00famenes de datos significativamente m\u00e1s bajos.<\/p>\n<p>Un equipo de investigadores del Instituto de Automatizaci\u00f3n de la Academia de Ciencias de China ha desarrollado un modelo de inteligencia artificial completamente distinto a los actuales, como ChatGPT, que utilizan la arquitectura Transformer. Bautizado como <strong>SpikingBrain-1.0<\/strong>, se basa en neuronas artificiales que imitan el comportamiento de las del cerebro humano.<\/p>\n<p>A diferencia de los modelos de IA convencionales, basados en Transformer \u2014una arquitectura que requiere de enormes cantidades de datos, redes gigantescas y consumo energ\u00e9tico intensivo\u2014, SpikingBrain-1.0 propone un enfoque completamente distinto. Su funcionamiento se basa en <strong>neuronas de impulsos<\/strong>, que replican m\u00e1s fielmente el modo en que las neuronas humanas transmiten informaci\u00f3n.<\/p>\n<p>Este enfoque permite entrenar el modelo utilizando vol\u00famenes de datos significativamente m\u00e1s bajos. Seg\u00fan sus creadores, SpikingBrain-1.0 logr\u00f3 resultados comparables a los de otros modelos de c\u00f3digo abierto en tareas de comprensi\u00f3n del lenguaje y razonamiento, usando solo <strong>2 % de los datos de preentrenamiento<\/strong> que requirieron los modelos tradicionales.<\/p>\n<p>Uno de los avances m\u00e1s llamativos del modelo es su impresionante <strong>velocidad de inferencia<\/strong>. En una de sus variantes, SpikingBrain logr\u00f3 <strong>acelerar 26,5 veces<\/strong> la generaci\u00f3n de un primer token desde un contexto de un mill\u00f3n de tokens, en comparaci\u00f3n con las arquitecturas Transformer. Este rendimiento lo hace especialmente eficiente para analizar secuencias ultra largas, como documentos legales o m\u00e9dicos, simulaciones de f\u00edsica de part\u00edculas y secuencias gen\u00e9ticas.<\/p>\n<h3>\u00abUna nueva generaci\u00f3n de inteligencia artificial\u00bb<\/h3>\n<p>Xu Bo, director del Instituto de Automatizaci\u00f3n, afirm\u00f3 que el nuevo modelo de IA \u00ababre una v\u00eda t\u00e9cnica no basada en Transformer para el desarrollo de una nueva generaci\u00f3n de inteligencia artificial\u00bb. Tambi\u00e9n se\u00f1al\u00f3 su potencial para inspirar el dise\u00f1o de chips neurom\u00f3rficos de bajo consumo energ\u00e9tico, una tecnolog\u00eda clave para el futuro de la IA sostenible.<\/p>\n<p>No es la primera vez que los investigadores del instituto chino exploran el potencial del cerebro humano como modelo. El a\u00f1o pasado, en colaboraci\u00f3n con cient\u00edficos suizos, presentaron <strong>Speck<\/strong>, un <strong>chip neurom\u00f3rfico<\/strong> que consume apenas 0,42 milivatios en reposo, lo que significa que casi no gasta energ\u00eda cuando no recibe est\u00edmulos. El cerebro humano, con toda su complejidad, opera con solo 20 vatios, una fracci\u00f3n del consumo de las actuales infraestructuras de IA.<\/p>\n<p><strong>RT.<\/strong><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El enfoque de los investigadores chinos permite entrenar el modelo utilizando vol\u00famenes de datos significativamente m\u00e1s bajos. Un equipo de investigadores del Instituto de Automatizaci\u00f3n de la Academia de Ciencias de China ha desarrollado un modelo de inteligencia artificial completamente distinto a los actuales, como ChatGPT, que utilizan la arquitectura Transformer. Bautizado como SpikingBrain-1.0, se [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":83605,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"rop_custom_images_group":[],"rop_custom_messages_group":[],"rop_publish_now":"initial","rop_publish_now_accounts":[],"rop_publish_now_history":[],"rop_publish_now_status":"pending","footnotes":""},"categories":[68,67,72],"tags":[23],"class_list":["post-83604","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-tec","category-ciudad","category-estado","tag-destacado"],"_links":{"self":[{"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/posts\/83604","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/notiissa.mx\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=83604"}],"version-history":[{"count":1,"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/posts\/83604\/revisions"}],"predecessor-version":[{"id":83606,"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/posts\/83604\/revisions\/83606"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/notiissa.mx\/index.php?rest_route=\/wp\/v2\/media\/83605"}],"wp:attachment":[{"href":"https:\/\/notiissa.mx\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=83604"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/notiissa.mx\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=83604"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/notiissa.mx\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=83604"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}