Транскрибация с 6 GPU под Windows
Добрый день!
Ищу разработчика для доработки системы транскрибации аудио с использованием faster-whisper. Цель — ускорить обработку за счёт распределения файлов по длительности на 6 GPU (Windows + Python 3.10).
Что нужно сделать:
Реализовать распределение:
GPU 5 (RTX 3060) — 10+ минут;
GPU 3, 4 (RTX 2060) — 4–10 минут;
GPU 0, 1, 2 (GTX 1660) — до 4 минут.
Обеспечить стабильную параллельную загрузку всех GPU.
Использовать model="medium" в faster-whisper.
После транскрибации:
сохранить в .txt/.json;
сформировать архивы audio_дата.zip, transcripts_дата.zip;
(по желанию) отправить результат в Telegram через API.
Технические данные:
Windows, Python 3.10
torch, faster-whisper, multiprocessing, tqdm, pydub
GPU: 3× GTX 1660, 2× RTX 2060, 1× RTX 3060
CUDA установлена, используется torch.cuda
Ожидаю на выходе:
Скрипт или модуль, стабильно распределяющий и запускающий транскрибацию;
Логирование, контроль ошибок, сохранение результата.
В отклике укажите:
Опыт с Whisper / Faster-Whisper / WhisperX?
Как реализуете распределение по GPU?
Подходящая модель для RTX 3060?
Готовы подключить Telegram-бота?
Срок реализации?
Буду рад сотрудничеству с теми, кто любит создавать надёжные решения.
Скрипты и боты