1
예제코드 다운로드 4장.
https://wikibook.co.kr/llm-projects/
2
# VSCODE
# File > Open Folder
ch04_TTS_exp.py 에 OPENAI API 키 입력
실행하면 speech.mp3 파일 만들어짐.
from openaiimport OpenAI
# API 키 입력
client = OpenAI(api_key="여러분들의 Key 값")
# 생성할 파일명
speech_file_path = "speech.mp3"
with client.audio.speech.with_streaming_response.create(
model="tts-1",
voice="alloy",
input="""오늘은 사람들이 좋아하는 것을 만들기에 좋은 날입니다!""",
) as response:
response.stream_to_file("speech.mp3")
3
# VSCODE > 터미널
pip install openai
pip install streamlit
실행
PS C:\07-openai\openai-api-tutorial-main\ch04> streamlit.cmd run .\ch04_TTS_exp.py
4
sound.mp3 만들어짐
1
C:\07-openai\openai-api-tutorial-main\ch04
ch04_whisper_exp.py
from openai import OpenAI
# API 키 입력
client = OpenAI(api_key="sk-proj-A")
# 녹음 파일 열기
audio_file = open("speech.mp3", "rb")
# whisper 모델에 음원 파일 넣기
transcript = client.audio.transcriptions.create(model="whisper-1", file=audio_file, response_format="text")
# 결과 보기
print(transcript)
2
실행
PS C:\07-openai\openai-api-tutorial-main\ch04> python.exe .\ch04_whisper_exp.py
오늘은 사람들이 좋아하는 것을 만들기에 좋은 날입니다.
3
다른 mp3로 테스트 - sound.mp3 준비
4
실행
PS C:\07-openai\openai-api-tutorial-main\ch04> python.exe .\ch04_whisper_exp.py
Whisper는 범위온 음성인식 모델입니다. 다양한 오디오의 대규모 데이터 시트를 학습하고 다국어 음성인식, 음성번역, 언어식별을 수행할 수 있는 멀티태스킹 모델이기도 합니다.
pip install openai
pip install streamlit
1
API 키 입력
2
streamlit.cmd run .\ch04_assistant.py
3
ModuleNotFoundError: No module named 'audiorecorder'
4
python.exe -m pip install --upgrade pip
streamlit.cmd run .\ch04_assistant.py
다음
https://brunch.co.kr/@topasvga/4157