{"id":143628,"date":"2026-03-17T18:58:27","date_gmt":"2026-03-17T18:58:27","guid":{"rendered":"https:\/\/crypto-economy.com\/es\/?p=143628"},"modified":"2026-03-17T18:58:39","modified_gmt":"2026-03-17T18:58:39","slug":"tether-presenta-su-sistema-lora-multiplataforma-para-bitnet","status":"publish","type":"post","link":"https:\/\/crypto-economy.com\/es\/tether-presenta-su-sistema-lora-multiplataforma-para-bitnet\/","title":{"rendered":"Tether Presenta su Sistema LoRA Multiplataforma para BitNet"},"content":{"rendered":"<p style=\"text-align: justify\"><a href=\"https:\/\/crypto-economy.com\/es\/tether-su-ceo-anticipa-un-avance-en-la-apuesta-por-la-ia-descentralizada\/\" target=\"_blank\" rel=\"noopener\"><strong>Tether<\/strong>\u00a0<\/a><strong>lanz\u00f3 el primer framework cross-platform de fine-tuning LoRA para modelos BitNet de Microsoft<\/strong>, a trav\u00e9s de su plataforma <strong>QVAC Fabric<\/strong>, con el objetivo de permitir el <strong>entrenamiento e inferencia de modelos de lenguaje<\/strong> de hasta mil millones de par\u00e1metros en hardware de consumo masivo, incluyendo laptops, GPUs convencionales y smartphones modernos.<!--more--><\/p>\n<p style=\"text-align: justify\">Este framework <strong>elimina la dependencia de infraestructura NVIDIA de nivel empresarial o servicios cloud,<\/strong> que hasta ahora representaban una barrera de acceso casi infranqueable para organizaciones fuera del primer nivel tecnol\u00f3gico.<\/p>\n<p style=\"text-align: justify\">Los benchmarks publicados por la compa\u00f1\u00eda muestran que el modelo BitNet-1B <strong>consume hasta un 77,8% menos de VRAM que Gemma-3-1B en 16 bits<\/strong>, y que la inferencia en GPUs m\u00f3viles resulta <strong>entre dos y once veces m\u00e1s r\u00e1pida<\/strong> que en CPU. En un Samsung S25, el fine-tuning de un modelo de 125 millones de par\u00e1metros sobre un dataset biom\u00e9dico de aproximadamente 300 documentos <strong>se completa en diez minutos<\/strong>. Un modelo de 1B <strong>requiere una hora y dieciocho minutos<\/strong> en el mismo dispositivo, mientras que el iPhone 16 permite <strong>escalar hasta modelos de 13B par\u00e1metros<\/strong>.<\/p>\n<p style=\"text-align: justify\">Paolo Ardoino, CEO de Tether, sostuvo que cuando el entrenamiento de modelos depende de infraestructura centralizada, <strong>la innovaci\u00f3n se estanca y el equilibrio del ecosistema se vuelve<\/strong> fr\u00e1gil. Tambi\u00e9n se\u00f1al\u00f3 que la compa\u00f1\u00eda continuar\u00e1 destinando recursos para <strong>garantizar que la inteligencia artificial sea accesible localmente en cualquier dispositivo.<\/strong><\/p>\n<p>Fuente: <a href=\"https:\/\/tether.io\/news\/tethers-qvac-launches-worlds-first-cross-platform-bitnet-lora-framework-to-enable-billion-parameter-ai-training-and-inference-on-consumer-gpus-and-smartphones\/\" target=\"_blank\" rel=\"noopener\">https:\/\/tether.io\/news\/tethers-qvac-launches-worlds-first-cross-platform-bitnet-lora-framework-to-enable-billion-parameter-ai-training-and-inference-on-consumer-gpus-and-smartphones\/<\/a><\/p>\n<hr \/>\n<p style=\"text-align: justify\"><b>Disclaimer:\u00a0<\/b>Las Noticias Flash de Crypto Economy se elaboran a partir de fuentes oficiales y p\u00fablicas verificadas por nuestro equipo editorial. Su prop\u00f3sito es informar de forma r\u00e1pida sobre hechos relevantes del ecosistema cripto y blockchain.<\/p>\n<p style=\"text-align: justify\">Esta informaci\u00f3n no constituye asesoramiento financiero ni recomendaci\u00f3n de inversi\u00f3n. Recomendamos verificar siempre los canales oficiales de cada proyecto antes de tomar decisiones relacionadas.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Tether\u00a0lanz\u00f3 el primer framework cross-platform de fine-tuning LoRA para modelos BitNet de Microsoft, a trav\u00e9s de su plataforma QVAC Fabric, con el objetivo de permitir el entrenamiento e inferencia de modelos de lenguaje de hasta mil millones de par\u00e1metros en hardware de consumo masivo, incluyendo laptops, GPUs convencionales y smartphones modernos.<\/p>\n","protected":false},"author":34,"featured_media":143630,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"rank_math_title":"","rank_math_description":"","footnotes":""},"categories":[4892],"tags":[264,7003,279],"class_list":["post-143628","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias-flash","tag-inteligencia-artificial","tag-qvac","tag-tether"],"_links":{"self":[{"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/posts\/143628","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/users\/34"}],"replies":[{"embeddable":true,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/comments?post=143628"}],"version-history":[{"count":1,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/posts\/143628\/revisions"}],"predecessor-version":[{"id":143635,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/posts\/143628\/revisions\/143635"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/media\/143630"}],"wp:attachment":[{"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/media?parent=143628"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/categories?post=143628"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/crypto-economy.com\/es\/wp-json\/wp\/v2\/tags?post=143628"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}