스테이블 디퓨전에서 막히는 부분 1
결과부터 말씀드리자면
whell for llama-cpp-python이 진짜 안깔립니다.
물론 cuda를 안쓰고 깐다면, 깔 수는 있겠지만
그건 절반의 성공이라 할 수 있겠죠.
왜냐하면 쿠다를 안쓴다면, 당연히 그래픽 자원을 불러오는데 문제가 발생할 수 밖에...
없겠죠.
그래서 꽤 오래 고생해서 방법을 찾았습니다.
https://github.com/casualcomputer/local_llm
여기 이 분이 공개하신 방법에서
쿠다를 활용하면서 해당 cpp를 깔 수 있는 방안이 있습니다.
또한 각 쿠다 버전 별로 세팅되어 있는 모듈을 확인하실 수도 있습니다.
그래서 이제 가상환경에서 특정 llama-cpp-python을 까실 때,
우선 스테이블 디퓨전에 잇는 밴브를 활성화하시고 난 이후에
Step3. 에 있는 방법론으로 처리하시면 됩니다!
앞으로도 스테이블 디퓨전을 제대로 쓰기 위한 여러 모듈들을 설치하는 방법을 알려드릴 생각이며,
관심있으시면
제가 적고 있는 이 매거진을 구독해주세요~
여유가 되신다면 응원도 해주시면 정말 좋고요!