El agente de navegador con IA de código abierto

WebBrain es una extensión de navegador gratuita y de código abierto que trae capacidades de agente de IA a Chrome y Firefox. Lee páginas, extrae datos y automatiza tareas web — con el LLM que tú elijas. La alternativa autohospedable a los plugins de IA propietarios.

Instalar extensión Ver en GitHub
https://example.com/productos

Catálogo de productos

🧠 WebBrain.one
Extrae todos los nombres y precios de productos de esta página
Leyendo página
Extrayendo datos
Se encontraron 24 productos. Estos son los resultados:
1. Widget Pro — $29.99
2. Super Gadget — $49.99
3. MegaTool X — $19.99
...y 21 más
Pregunta lo que quieras sobre esta página...
Demo

Mira WebBrain en acción

Descubre cómo WebBrain lee páginas, extrae datos y automatiza tareas en el navegador.

Funciones

Todo lo que necesitas en una IA de navegador

Un agente de IA completo que vive en la barra lateral del navegador y entiende cualquier página web.

📖

Comprensión de páginas

Lee y entiende cualquier página web — artículos, documentación, paneles, formularios. Pregunta y obtén respuestas al instante del contenido actual.

🤖

Agente completo de navegador

Hace clic, escribe, desplaza, navega e interactúa con las páginas por ti. Automatiza tareas repetitivas con instrucciones en lenguaje natural.

📊

Extracción de datos

Extrae datos estructurados de cualquier página — tablas, listas, enlaces, formularios. Exporta catálogos de productos, resultados de búsqueda o cualquier contenido.

🔌

Multi-proveedor de LLM

Funciona con llama.cpp local, OpenAI, Claude y OpenRouter. Usa el modelo que prefieras — o trabaja totalmente sin conexión con IA local.

🛡️

Privacidad primero

Tus datos son tuyos. Usa un LLM local y no habrá fugas de datos. Sin telemetría, sin seguimiento, sin cuentas. Totalmente de código abierto.

Contexto inteligente

La gestión automática de contexto evita el desbordamiento de tokens. Recorta el historial de conversación y limita la salida de herramientas para sesiones fluidas e ininterrumpidas.

👁️

Modelo de visión dedicado

Combina un modelo de texto rápido para planificar con un modelo de visión separado para leer capturas. Más barato y más rápido que usar un único modelo multimodal grande para todo.

🗂️

Grupos de pestañas

Las pestañas que abre el agente se unen a un grupo «WebBrain» dedicado, de modo que tus cadenas de investigación quedan juntas visualmente en lugar de dispersarse. Los clics en enlaces target="_blank" se repliegan a la pestaña actual para evitar proliferación de pestañas.

👤

Autocompletado de perfil

Una biografía opcional en texto plano —nombre, correo laboral, empresa y una contraseña desechable— permite al agente rellenar formularios de registro de poca importancia sin preguntar cada vez. Desactivado por defecto, todo se almacena localmente.

🍪

Cookies y muros de pago

Rechaza banners de consentimiento (OneTrust, Cookiebot, Didomi, Quantcast) antes de razonar sobre la página. Detecta muros de pago y te lo dice con honestidad en lugar de fabricar contenido o intentar evitarlos.

🌐

Interfaz multilingüe

El plugin se distribuye en English, Español, Français, Türkçe y 中文. Detecta automáticamente el idioma del navegador al primer uso; puedes cambiarlo en cualquier momento desde el icono del globo en el panel lateral. La web está localizada en consecuencia.

💰

Consumo optimizado de tokens

Las capturas se redimensionan y comprimen iterativamente en JPEG antes de salir de tu máquina, manteniendo bajos los tokens de imagen. El recorte inteligente de contexto y los límites en la salida de herramientas mantienen predecibles las facturas en la nube — sin sorpresas en sesiones largas.

Proveedores de LLM

Usa tu propia IA

Conecta con cualquier API compatible con OpenAI o ejecuta un modelo local. Cambia de proveedor en cualquier momento desde los ajustes de la extensión.

🦙
llama.cpp
Ollama
OpenAI
Claude
OpenRouter
StudioLM
VLLM
Modos de interacción

Preguntar o Actuar

Dos modos para necesidades distintas. Solo lectura por defecto, toda la potencia del agente cuando la necesitas.

💬

Modo Preguntar

Solo lectura. Haz preguntas sobre la página actual, extrae información, resume contenido. Seguro y no intrusivo — no se modifica nada.

Modo Actuar

Agente completo. Hace clic en botones, rellena formularios, navega entre páginas, ejecuta scripts. Automatiza flujos complejos de varios pasos con una sola instrucción.

Empezar

Instala WebBrain

Disponible para Chrome y Firefox. Gratuito, de código abierto, sin cuenta requerida.

🌐

Chrome y Chromium

Manifest V3 · Chrome 116+ · También funciona con Brave, Edge, Opera, Vivaldi y otros navegadores compatibles con Chromium.

🦊

Firefox

Manifest V2 · Firefox 109+

¿Por qué WebBrain?

¿Cómo se compara WebBrain?

WebBrain se sitúa entre los plugins de IA nativos del navegador y los frameworks de agente completos. Así es como encaja.

Frente a plugins de IA de navegador

Característica WebBrain Claude en Chrome
Código abiertoLicencia MITPropietario
PrecioGratis para siempreRequiere Claude Pro (20 $/mes)
Soporte de LLM localllama.cpp, OllamaNo — solo Claude
Multi-proveedor4 proveedores (local + nube)Solo Claude
ChromeSí (MV3)
FirefoxSí (MV2)No
Panel lateral
Modos Preguntar / ActuarSimilar
Totalmente sin conexiónSí (con LLM local)No — nube requerida
Interacción con la páginaScript de contenidoChrome DevTools Protocol
AutohospedableNo

Frente a frameworks de agentes de IA (categoría distinta)

Aspecto WebBrain OpenClaw / Browser-Use / etc.
¿Qué es?Extensión de navegador (para el usuario final)Framework / SDK (herramienta para desarrolladores)
Usuario objetivoCualquiera — sin códigoDesarrolladores que construyen automatizaciones
InstalaciónInstalación con un clicRequiere Python/Docker
InterfazChat integrado en panel lateralSin UI — solo código o API
Control del navegadorScript de contenido (ligero)CDP / Playwright (control total)
Flujos multi-pestañaConversaciones por pestañaOrquestación multi-pestaña programable
Modo headlessNo — se ejecuta en tu navegadorSí — automatización headless
ExtensibilidadAñadir proveedores de LLM personalizadosSDK Python completo, herramientas personalizadas
Mejor paraAsistente de IA en la navegación diariaPipelines automatizados de scraping / pruebas

WebBrain es una extensión de navegador para usuarios finales que quieren un asistente de IA mientras navegan. Los frameworks como OpenClaw son herramientas para desarrolladores que construyen pipelines automatizados. Herramientas distintas para trabajos distintos — y puedes usar ambas.

Preguntas frecuentes

Preguntas frecuentes

¿Es WebBrain una alternativa gratuita al plugin de navegador de Claude?

Sí. WebBrain ofrece capacidades de agente de navegador con IA similares: leer páginas, extraer datos, hacer clic, rellenar formularios y automatizar flujos de varios pasos. A diferencia del plugin propietario de Claude, que requiere una suscripción a Claude Pro y solo funciona con los modelos de Anthropic, WebBrain es totalmente gratuito, de código abierto (licencia MIT) y admite varios proveedores de LLM incluidos modelos locales que se ejecutan íntegramente en tu máquina.

¿En qué se diferencia WebBrain de OpenClaw, Browser-Use y otros frameworks de agentes?

Son categorías distintas. WebBrain es una extensión de navegador: la instalas en Chrome o Firefox y chateas con ella en un panel lateral, sin código. Frameworks como OpenClaw y Browser-Use son SDK para desarrolladores que construyen pipelines automatizados en Python, habitualmente con navegadores headless y CDP. En una frase: WebBrain es para navegar día a día con un asistente de IA; los frameworks son para construir bots de scraping y automatización de pruebas. Puedes usar ambos — se complementan.

¿Puedo usar WebBrain totalmente sin conexión?

Sí. El proveedor por defecto de WebBrain es llama.cpp, que ejecuta un modelo de IA local en tu ordenador. Sin claves de API, sin internet para la IA y sin que salga ningún dato de tu máquina. Solo descarga un modelo GGUF, arranca llama-server y tendrás un agente de IA totalmente privado. También puedes usar Ollama con su endpoint compatible con OpenAI.

¿Qué modelos de IA admite WebBrain?

WebBrain admite cuatro tipos de proveedor: llama.cpp (cualquier modelo GGUF local), OpenAI (GPT-4o, GPT-4, etc.), Claude (Claude Opus, Sonnet, Haiku mediante la API nativa) y OpenRouter (acceso a más de 100 modelos de varios proveedores). Cualquier endpoint compatible con OpenAI funciona, así que también puedes usar servicios como Together AI, Groq, Mistral o cualquier servidor local con interfaz compatible.

¿Cuál es el modelo más recomendado?

A fecha del 21 de abril de 2026, nuestra principal recomendación es Qwen 3.6 35B. Razón: en nuestro benchmark de visión (vision-model-shootout) superó a Gemma 4 en comprensión de capturas de pantalla manteniéndose viable para inferencia local.

En GPU de consumo, la RTX 5090 es ideal y la RTX 4090 suele ser viable con cuantización INT4 AutoRound vía Intel/Qwen3.6-35B-A3B-int4-AutoRound.

Para máxima velocidad recomendamos servir con vLLM. Comando de ejemplo:

python -u -m vllm.entrypoints.openai.api_server --model Intel/Qwen3.6-35B-A3B-int4-AutoRound --served-model-name qwen3.6-35b --quantization auto --dtype bfloat16 --max-model-len 65536 --max-num-batched-tokens 32768 --max-num-seqs 4 --host 0.0.0.0 --port 8000 --gpu-memory-utilization 0.92 --enable-prefix-caching --enable-chunked-prefill --limit-mm-per-prompt '{"image": 4, "video": 1}' --mm-processor-cache-type shm --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser qwen3_coder --trust-remote-code --allowed-origins '["*"]' --speculative-config '{"method": "dflash", "model": "z-lab/Qwen3.6-35B-A3B-DFlash", "num_speculative_tokens": 15}' --attention-backend flash_attn

La decodificación especulativa con DFlash es opcional.

Recibo «Failed to fetch» al conectar con un servidor LLM local (vLLM, Ollama, llama.cpp) en mi red

Si tu servidor LLM está en otra máquina de tu red local (por ejemplo http://192.168.1.x:8000), Chrome bloquea la petición salvo que el servidor envíe cabeceras CORS. La solución depende del servidor:

vLLM: arranca con --allowed-origins '["*"]' (el valor debe ser una lista JSON).
Ollama: define la variable de entorno OLLAMA_ORIGINS=* antes de arrancar.
llama.cpp: CORS está activado por defecto — no hay que cambiar nada.

Si tu servidor se ejecuta en localhost (la misma máquina que el navegador), normalmente no hace falta CORS. El problema afecta solo a conexiones entre máquinas en la red local. Asegúrate de que la URL base en los ajustes de WebBrain termina en /v1 (por ejemplo http://192.168.1.47:8000/v1).

¿WebBrain funciona en Firefox?

Sí. WebBrain incluye tanto una versión para Chrome (Manifest V3, con la API sidePanel) como una versión para Firefox (Manifest V2, con sidebar_action). Ambas versiones tienen las mismas funciones. La versión de Firefox se puede cargar como complemento temporal para desarrollo o publicar en addons.mozilla.org para instalación permanente.

¿Es seguro usar WebBrain? ¿Puede modificar páginas web?

WebBrain tiene dos modos: el modo Preguntar (por defecto) es de solo lectura y no puede modificar nada en la página. El modo Actuar habilita las capacidades completas del agente (clics, escritura, navegación) pero requiere confirmación explícita del usuario antes de activarse y muestra un aviso visible. Puedes detener el agente en cualquier momento con el botón Detener. El código fuente de la extensión está totalmente abierto en GitHub para auditoría.

¿Cómo uso WebBrain para scraping y extracción de datos?

Abre cualquier página web, abre el panel lateral de WebBrain y pregunta en lenguaje natural: «Extrae todos los nombres y precios de productos de esta página», «Consigue todas las direcciones de correo de esta página» o «Resume este artículo en viñetas». El agente lee el contenido, entiende la estructura y devuelve los datos extraídos. Para scraping más complejo, cambia a modo Actuar y el agente puede navegar entre páginas, pulsar los botones de paginación y agregar datos de varias páginas.

¿WebBrain llama a las APIs directamente o siempre pasa por la interfaz?

Por defecto, WebBrain siempre pasa por la interfaz visible para cualquier acción que cree, modifique, elimine, envíe, publique o compre algo. Navega a la página, rellena el formulario y pulsa el botón — exactamente como lo harías tú. Se niega a llamar directamente a endpoints REST/GraphQL con fetch() en segundo plano para mutaciones. Es deliberado: las acciones por API son invisibles (no ves qué se envía), a menudo requieren tokens de autenticación que quizá no tengas configurados y tienen un radio de impacto mucho mayor que un clic erróneo y visible. UI-first significa que todo está en pantalla, en tu sesión habitual y que se puede detener.

Para leer datos —traer un README, buscar un issue, comparar precios, revisar una página de estado— WebBrain usa libremente peticiones HTTP en segundo plano con las herramientas fetch_url y research_url. Leer no es actuar; no cambia nada en un servicio remoto, así que no aplican las mismas preocupaciones de seguridad.

Si quieres permitir mutaciones por API para una tarea concreta, escribe /allow-api al inicio de tu mensaje (opcionalmente seguido de una descripción corta). Esta anulación por conversación permite a WebBrain recurrir a endpoints de API cuando la interfaz falla realmente, pero seguirá prefiriendo la UI cuando funcione. Un distintivo pegajoso permanece sobre el área de entrada mientras la anulación está activa y desaparece al reiniciar la conversación.

¿Puedo cambiar a otra pestaña mientras WebBrain trabaja en una página?

Sí, en Chrome — el agente se ejecuta en el service worker en segundo plano y está anclado a la pestaña donde comenzó, así que sigue haciendo clic, escribiendo y leyendo esa pestaña concreta aunque cambies el foco. Las herramientas que apuntan a una pestaña (clic, escritura, navegación y captura por CDP) funcionan en pestañas en segundo plano en Chrome. La barra lateral bloquea la entrada mientras hay una tarea en marcha para que no inicies accidentalmente una segunda tarea en la pestaña nueva — tendrás que esperar o detener la actual. Ten en cuenta que los navegadores limitan temporizadores y animaciones en pestañas de fondo, así que los sitios muy animados pueden responder algo más lentos.

En Firefox, el agente también seguirá ejecutándose en su pestaña original, pero las capturas automáticas están limitadas: la API de capturas de Firefox solo puede capturar la pestaña activa, no una concreta en segundo plano. WebBrain lo detecta y salta la captura en ese turno en lugar de enviarle al modelo una imagen de una página sin relación. El agente seguirá planificando con el contexto textual hasta que vuelvas a su pestaña.

Evita hacer clic o escribir activamente en la misma pestaña en la que trabaja el agente — genera condiciones de carrera donde ambos compiten por la misma página. Cambiar de pestaña está bien; co-pilotar la misma pestaña no lo está.

¿Cómo funciona el autocompletado de perfil y es seguro?

El autocompletado de perfil es una función opcional en Ajustes → Perfil. Introduces una biografía breve —nombre, correo laboral, empresa y una contraseña desechable para registros poco importantes— y lo activas. Cuando está activo, WebBrain añade ese texto al prompt del sistema del agente para que pueda rellenar formularios de registro sin preguntar cada vez.

El texto se guarda en texto plano en el almacenamiento local del navegador. No se transmite al proyecto WebBrain, pero se envía al proveedor de LLM que tengas configurado en cada turno, como parte del prompt del sistema. Desactivado por defecto.

No pongas aquí contraseñas de cuentas importantes (Google, Apple, iCloud, banca, SSO de trabajo, correo principal). Esas cuentas deberían usar 2FA y, de todas formas, no deberían entregarse a un agente. El uso previsto es una contraseña desechable que reutilizas para registros en boletines y pruebas gratuitas.

¿Qué hace WebBrain con los banners de cookies y los muros de pago?

Banners de cookies: WebBrain reconoce banners de consentimiento de frameworks habituales (OneTrust, Cookiebot, Didomi, Quantcast, Google Funding Choices, TrustArc) y los descarta antes de razonar sobre la página. La prioridad es «Rechazar todo» / «Rechazar no esenciales» / «Solo necesarias» cuando son visibles; como recurso cae a «Aceptar todo» en lugar de desaparecer en el laberinto de «Gestionar preferencias».

Muros de pago: WebBrain informa del muro de pago con honestidad y te dice lo que pudo ver (titular, subtítulo, primeros párrafos). No intenta saltarse los muros de pago — ni archive.today, ni 12ft.io, ni borrado de cookies, ni desactivación de JS, ni trucos de modo lectura. Si quieres el artículo completo, inicia sesión con una suscripción o pide a WebBrain que busque cobertura gratuita de la misma historia.

¿Qué idiomas admite la interfaz de WebBrain?

El plugin se distribuye con interfaz totalmente traducida en English, Español, Français, Türkçe y 中文. En el primer uso detecta automáticamente el idioma del navegador; a partir de ahí puedes cambiarlo en cualquier momento desde el icono del globo en la cabecera del panel lateral o desde la fila Idioma en Ajustes → Visualización. La preferencia se sincroniza entre el panel lateral, la página de opciones y la de trazas mediante browser.storage.local. Esta web está localizada en consonancia: /es/, /fr/, /tr/, /zh/ reflejan la página en inglés.

¿Cómo mantiene WebBrain controladas las facturas de los LLM en la nube?

Tres capas independientes:

Capturas con conciencia de tokens. Antes de que cualquier imagen salga de tu máquina, WebBrain la redimensiona (se limita el lado corto manteniendo la proporción) y la comprime iterativamente en JPEG hasta que encaja en el presupuesto de tokens de imagen por turno. Una captura de 2000×1200 que te costaría unos 1.500 tokens de entrada en GPT-4o se reduce a unos 300–500 tokens sin pérdida práctica para tareas de lectura de páginas. Implementado en _fitImageDimensions con pruebas unitarias del cálculo.

Recorte inteligente de contexto. El historial de conversación, la salida de herramientas y los volcados inline del DOM están acotados por turno y se recortan primero los más antiguos cuando el contexto del modelo activo se acerca al límite. No verás cómo una ejecución pasa silenciosamente de 10k tokens a 100k porque un read_page devolvió un artículo kilométrico.

Modelo de visión dedicado. Combina un modelo de texto barato (p. ej. GPT-4o-mini) para planificar y llamar a herramientas con un modelo de visión (p. ej. GPT-4o) solo para las capturas, de modo que no pagues precios de modelo multimodal en cada turno. Se configura en Ajustes → Visión.

Resultado: las sesiones largas con proveedores en la nube se mantienen predecibles. Para control total, usa llama.cpp local — coste por token cero.

¿Puedo contribuir a WebBrain?

¡Por supuesto! WebBrain tiene licencia MIT y acepta contribuciones. Echa un vistazo al repositorio de GitHub para ver issues, solicitudes de funciones y pautas de contribución.

100 % código abierto

WebBrain tiene licencia MIT. Inspecciona el código, contribuye con funciones o haz un fork y personalízalo.

Dale estrella en GitHub