brunch

You can make anything
by writing

C.S.Lewis

by AI러 이채문 Oct 24. 2024

llama-cpp-python

스테이블 디퓨전에서 막히는 부분 1

결과부터 말씀드리자면


whell for llama-cpp-python이 진짜 안깔립니다.


물론 cuda를 안쓰고 깐다면, 깔 수는 있겠지만


그건 절반의 성공이라 할 수 있겠죠.



왜냐하면 쿠다를 안쓴다면, 당연히 그래픽 자원을 불러오는데 문제가 발생할 수 밖에...


없겠죠.



그래서 꽤 오래 고생해서 방법을 찾았습니다.





https://github.com/casualcomputer/local_llm


여기 이 분이 공개하신 방법에서


쿠다를 활용하면서 해당 cpp를 깔 수 있는 방안이 있습니다.




또한 각 쿠다 버전 별로 세팅되어 있는 모듈을 확인하실 수도 있습니다.


그래서 이제 가상환경에서 특정 llama-cpp-python을 까실 때,


우선 스테이블 디퓨전에 잇는 밴브를 활성화하시고 난 이후에


Step3. 에 있는 방법론으로 처리하시면 됩니다!





앞으로도 스테이블 디퓨전을 제대로 쓰기 위한 여러 모듈들을 설치하는 방법을 알려드릴 생각이며,


관심있으시면



제가 적고 있는 이 매거진을 구독해주세요~


여유가 되신다면 응원도 해주시면 정말 좋고요!

매거진의 이전글 파일이름으로 그림을 만든다고?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari