前回の記事( OpenAIのWhisperが凄い - ザキンコのブログ )はやっつけ過ぎたので少し直す。RTX A2000 12GBだと、largeでも動いたので記念にメモ。
Dockerfile 少し直した。
FROM pytorch/pytorch:latest RUN apt-get update && apt-get install -y --no-install-recommends git \ && apt-get clean \ && rm -rf /var/lib/apt/lists/* WORKDIR /home/whisper RUN groupadd whisper && useradd -m -g whisper whisper && chown -R whisper:whisper /home/whisper RUN pip install git+https://github.com/openai/whisper.git USER whisper CMD ["/bin/bash"]
適当なworkディレクトリでbuild。
docker build -t zakinco/whisper:0.2 .
run。--gpus は環境による。うちではサブの1番を指定。前回入れてた --rm オプションは巨大ファイルを何度もダウンロードすることになって無駄だから削除。
docker run --gpus device=1 -it --name my-whisper -v "$PWD":/usr/src/myapp -w /usr/src/myapp zakinco/whisper:0.2 /bin/bash
実行。「 --condition_on_previous_text False 」を入れとくと無限ループに入らないので安定する。
whisper test.m4v --language Japanese --model large --condition_on_previous_text False
再実行する時は、 restart して attach で。これでダウンロードなしですぐに解析が始まる。
docker container restart my-whisper docker container attach my-whisper
補足
はてなは Markdown での Dockerfile のシンタックスハイライトに対応してほしいなあ。