conda create --name whisper-gpu python=3.9 conda activate whisper-gpu
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
pip install git+https://github.com/openai/whisper.git
//version compilada para windows CPU
https://github.com/regstuff/whisper.cpp_windows/releases/tag/v0.0.1
import torch
import whisper
# Verifica si CUDA está disponible y selecciona el dispositivo
device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Usando el dispositivo: {device}")
# Carga el modelo de whisper y mueve el modelo a la GPU
model = whisper.load_model("base", device=device)
# Carga y transcribe un archivo de audio
audio_path = "ruta/al/archivo/audio.wav"
result = model.transcribe(audio_path)
# Imprime la transcripción
print(result["text"])
Comentarios
Publicar un comentario