
Как сделать сохранённые YouTube-видео searchable (гайд 2026)
Как сделать сохранённые YouTube-видео searchable в 2026 — три конкретных метода, от 5-минутного браузерного трюка до полноценного инструмента поиска по транскриптам. Side-by-side сравнение.
Знакомая ситуация: фраза из сохранённого видео в голове, видео где-то в YouTube-библиотеке, но поиск по названию ничего не даёт. Фразы не было в названии — она была на 23-й минуте чьего-то монолога.
Вот что большинство статей не скажет: «поиск по библиотеке» в YouTube матчит только названия, описания и имена каналов. Не произнесённый контент. Не субтитры. Не то что кто-то реально сказал внутри видео. By design.
Дальше — три реальных опции чтобы сделать твои сохранёнки searchable в 2026, по возрастанию усилия и эффективности. Выбирай ту что подходит под частоту использования.
Вариант 1 — Нативный поиск по библиотеке YouTube (и почему он не работает)
YouTube отгружает search-бар наверху youtube.com/feed/library и youtube.com/playlist?list=WL (Watch Later). Выглядит как настоящий поиск. Не является — матчит только заголовок, описание и канал каждого видео, не транскрипт.
Это делает его полезным ровно в двух кейсах:
- Ты помнишь точное название или близкую формулировку которую использовал автор. Большинство YouTube-названий — SEO-маркетинговые слоганы которые редко совпадают с тем как нормально ссылаешься на видео — реже чем кажется.
- Ты помнишь имя канала, и в библиотеке достаточно мало контента чтобы проскроллить канал-фильтр и узнать превью.
Если ни то ни другое — нативный поиск проваливается. Не трать время дорабатывая запрос — данных там нет.
Вариант 2 — Поиск по YouTube-истории через Google Takeout + grep (бесплатно, DIY, 30 минут)
Это developer'ский escape hatch. Google Takeout экспортирует твои YouTube-данные, включая список каждого сохранённого видео. Дальше фетчишь транскрипт каждого через публичный YouTube timed-text API и ищешь по всем транскриптам локально однострочным grep.
Бесплатно. Работает. Также — 30 минут setup'а первый раз, и остаётся актуальным только если перезапускаешь раз в месяц.
Setup
Шаг 1 — Экспортируй сохранённые видео. Зайди на takeout.google.com, сними все галочки, выбери только «YouTube and YouTube Music». Внутри YouTube — выбери только «subscriptions» и «playlists» (Watch Later — это плейлист). Экспорт в ZIP, English. Жди email — обычно за 5 минут для обычных библиотек, до пары часов для power-юзеров.
Шаг 2 — Извлеки video ID. Внутри экспорта найди Takeout/YouTube and YouTube Music/playlists/Watch later.csv (и любые кастомные плейлисты). Первая колонка — video ID. Однострочный shell-сниппет вытащит:
tail -n +5 "Watch later.csv" | cut -d, -f1 > video_ids.txt
Шаг 3 — Забери транскрипты. Установи yt-dlp (Homebrew: brew install yt-dlp). Дальше луп:
mkdir transcripts
while read -r vid; do
yt-dlp --write-auto-sub --sub-lang en --skip-download \
--output "transcripts/%(id)s.%(ext)s" \
"https://www.youtube.com/watch?v=$vid"
done < video_ids.txt
Это заберёт авто-генерированные английские субтитры как .vtt файлы. Для 100 видео жди ~3 минуты; для 2000 — пару часов, и стоит добавить sleep 1 между запросами чтобы не схватить rate-limit.
Шаг 4 — Поиск. Теперь grep работает:
grep -ril "customer acquisition cost" transcripts/
Получаешь список ID файлов. Имя файла без расширения — это YouTube video ID — вставь в https://youtube.com/watch?v={ID} чтобы открыть видео.
Что это даёт
- Full-text поиск по транскрипту каждого сохранённого видео
- Бесплатно в деньгах, стоит только твоего времени
- Работает offline когда экспорт уже локально
- Транскрипты живут вечно даже если YouTube удалит видео
Чего это НЕ даёт
- Нет семантического поиска.
grepматчит только литеральные подстроки. Запрос «сколько стоит привлечь новых клиентов» промахивается мимо транскриптов которые говорят «CAC» или «customer acquisition cost». - Нет перехода на таймкод.
.vtt-файлы содержат таймкоды, ноgrepвозвращает только матчащие строки, не «открой видео на 12:34». - Нет мультиплатформенности. Instagram Reels и TikTok не покрываются так же — yt-dlp может скачать видео и аудио, но Instagram и TikTok auto-captions не выставлены как отдельный текстовый трек (на TikTok особенно они зашиты в пиксели видео). Чтобы искать в них через grep пришлось бы пере-транскрибировать локально через Whisper, что примерно утраивает время setup'а.
- Бремя поддержки. Перезапуск раз в месяц или это устаревает. Твоя библиотека на втором месяце уже не searchable.
Это правильный ответ если у тебя ≤200 сохранённых видео, ты grep'аешь из командной строки три раза в год, и не хочешь платить за инструмент. Для всего остального — трение копится.
Вариант 3 — Инструмент поиска по транскриптам видео (рекомендуем)
Третий вариант — это то для чего мы построили SavedThat: сохраняешь URL один раз, система забирает транскрипт автоматически, ищешь по всем сохранённым видео по сказанному — включая перефразированные запросы, разные языки и Instagram Reels с TikTok.
Trade-off против DIY-маршрута — recurring-подписка за пределами free. Trade-off против нативного поиска YouTube — никакой, строго больше возможностей.
Как выглядит workflow
1. Регистрация на savedthat.app — email или Google. Карта не нужна. Free даёт 30 сохранений в месяц — достаточно чтобы увидеть реально ли поиск находит то что раньше не находил.
2. Вставляешь любой YouTube URL в save-поле. Транскрипт забирается за ~5 секунд, эмбеддится, индексируется. Если кто-то уже сохранил тот же URL — твоя закладка прилетает меньше чем за секунду, потому что мы шарим транскрипты между юзерами.
3. Поиск по сказанному. В library-view сверху есть ask-поле. Попробуй запросы которые провалились бы в нативном поиске YouTube:
- Перефразированная цитата: «сколько стоит привлечь клиента» находит транскрипты которые говорили «CAC» или «customer acquisition cost»
- Иноязычный запрос: «стоимость привлечения клиентов» по-русски находит тот же английский момент через кросс-язычные эмбеддинги
- Размытая тема: «момент где они говорили про pricing strategy» находит релевантные чанки
Каждый результат возвращает точную цитату, таймкод и deep link который открывает YouTube на нужной секунде.
4. Принеси существующие сохранения (опционально). Импортируй CSV YouTube-URL'ов в Settings → Import. SavedThat пере-фетчит и проиндексирует в фоне. Можно прямо CSV из Takeout (вариант 2 выше) сюда.
Почему это бьёт DIY на масштабе
Три разницы складываются:
Гибридный retrieval, не только full-text. SavedThat запускает vector similarity (семантика) и Postgres tsvector full-text параллельно, потом мерджит через reciprocal rank fusion. Семантическая сторона ловит перефразированные и кросс-язычные запросы; full-text сторона точно вытаскивает exact-phrase recall. grep в командной строке — только full-text.
Авто-обновление. Сохранил видео → проиндексировано за 10 секунд → searchable навсегда, никаких re-run'ов. Против ежемесячных Takeout-экспортов.
Кросс-платформенность. YouTube, Instagram Reels и TikTok — один интерфейс поиска и один и тот же гибридный retrieval. yt-dlp + grep обрабатывает только YouTube.
Если сохраняешь больше нескольких видео в месяц и нужно их находить потом — через YouTube и short-video платформы — вариант 3 это workflow который реально не отстаёт.
Side-by-side
| Метод | Время setup'а | Усилие на поддержку | Тип поиска | Мультиплатформенность |
|---|---|---|---|---|
| YouTube нативный | 0 мин | Нет | Только название | По одной платформе |
| Takeout + grep + yt-dlp | 30 мин | Ручной ежемесячный перезапуск | Только full-text | Только YouTube |
| SavedThat | 5 мин | Нет — авто | Гибрид (семантика + FTS) | YouTube, Instagram, TikTok |
Краевые случаи
Видео без субтитров. Значимая часть YouTube-загрузок — особенно музыкальные клипы, монтажи без речи и свежие загрузки которые ещё в очереди на ASR — не имеют субтитров, ни нативных ни авто. С вариантом 2 такие видео не searchable. С вариантом 3 SavedThat пытается фетчить субтитры, и если их нет — сохранение всё равно появляется в библиотеке, просто не searchable пока caption-track не станет доступен.
Live-streams и очень длинные видео. 5-часовой live-stream-replay — это много транскрипта. Вариант 2 сохранит полный .vtt и grep будет работать. Вариант 3 (SavedThat) капает длину одного видео на 1ч на Free, 2ч на Pro, 3ч на Power — потому что costs транскрипции масштабируются линейно. За пределами лимита видео сохранится, но без транскрипта.
Приватность на общем компьютере. Вариант 2 хранит транскрипты как обычные файлы у тебя на ноуте — кто угодно с доступом к диску может прочитать. Вариант 3 держит транскрипты за твоим аккаунтом в облачной базе; share-ссылки явные и отзываемые.
Размер библиотеки. Watch Later у YouTube официально капается на 5000 видео, но начинает тормозить выше ~2000. И вариант 2, и вариант 3 справляются с 50K+ видео норм. Вариант 1 (нативный поиск) становится бесполезным в любом случае потому что скролл стольких названий — это та самая проблема с которой начинали.
Честная рекомендация
Если библиотека маленькая и grep'аешь три раза в год — вариант 2 отличный. Если сохраняешь видео как часть реального workflow (research, prep подкаста, изучение контента) и пере-находишь их чаще раза в месяц — hosted-инструменты выигрывают на сэкономленном времени задолго до того как стоят дороже одного кофе в месяц.
Если ты сейчас пробуешь вариант 1 и уточняешь запрос — остановись. Данных нет в индексе YouTube. Нужен один из двух других.
Keep reading
Search inside saved videos: the complete 2026 guide
Search inside saved videos by what was actually said — across YouTube, Instagram, and TikTok. How transcript search works in 2026, and four tools that do it.
Best AI video bookmark manager in 2026: 4 tools compared
The best AI video bookmark manager in 2026 depends on what you save. Honest comparison of SavedThat, Mymind, Raindrop, and Glasp — pricing, search, platforms.
Frequently asked questions (2026)
Можно искать YouTube Watch Later по сказанному?
Не нативно. Поиск по библиотеке YouTube матчит только названия, описания и имена каналов — не субтитры или произнесённый контент. Чтобы искать по сказанному нужно экспортировать список сохранённых видео и фетчить транскрипты самому, или использовать сторонний инструмент типа SavedThat который делает это автоматически.
У YouTube есть официальный API для поиска по транскриптам?
YouTube выставляет timedtext API для фетча субтитров конкретного видео по ID, но официального API для поиска по субтитрам нет. Сам Google Search иногда поднимает transcript-матчи в featured snippets, но это keyword-поиск по публичному вебу, не по твоей приватной библиотеке.
Авто-сгенерированные YouTube-субтитры считаются настоящим транскриптом?
Да — для английского в стандартных условиях записи современные авто-субтитры дают примерно 95% word accuracy. Они содержат таймкоды и достаточно хороши для и keyword и семантического поиска. Качество ниже на сильно акцентной речи, музыкальном фоне и накладывающихся спикерах, но поиск остаётся полезен сильно ниже идеальной транскрипции — семантические эмбеддинги изящно обрабатывают near-miss'ы.
Библиотека продолжит работать если YouTube удалит оригинал?
С вариантом 2 (Takeout + grep) `.vtt`-файлы переживают у тебя на диске, так что поиск продолжает работать, но YouTube-ссылка мёртвая. С вариантом 3 (SavedThat) транскрипты хранятся в нашей базе неограниченно — поиск и цитаты работают, но deep-link указывает на YouTube, так что playback ломается если видео удалили. Для долгосрочного архива самой медиа нужно отдельное решение.
Юридически ли использовать yt-dlp для этого?
Caption-файлы — публично выдаваемые сабтитл-треки; скачивать их personal-use инструментом — серая зона: ToS YouTube секция 5(B) запрещает скачивание любой части сервиса если явно не разрешено, хотя многие юзеры routinly запускают yt-dlp для personal-архивирования. Инструмент широко используется и активно поддерживается на май 2026. Мы не юристы — если строишь что-то коммерческое на bulk-extraction субтитров, сначала legal review.
Как мигрировать из Pocket (закрыт) в transcript-searchable инструмент?
Экспортируй библиотеку Pocket до дедлайна (grace-period Mozilla для архивированных данных закончился в начале 2026). Экспорт — CSV URL'ов. Отфильтруй видео URL'ы (youtube.com, youtu.be, instagram.com/reel, tiktok.com) и импортируй в SavedThat через Settings → Import. Не-видео URL'ы из Pocket лучше импортить в Raindrop или Instapaper — transcript-search инструменты не помогут со статьями.