-
SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 9. 23:18728x90
https://news.hada.io/topic?id=11245&utm_source=discord&utm_medium=bot&utm_campaign=1480
https://github.com/okuvshynov/slowllama
SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝
(github.com/okuvshynov)- 애플 M1/M2 및 소비자용 nVidia GPU에서 LLama2-70B 같은 모델을 파인튜닝
- 양자화(quantization)를 사용하는 대신, 포워드/백워드 패스 모두에서 모델
반응형'머신러닝_MachineLearning_AI > ChatGPT❤️활용하기' 카테고리의 다른 글
Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 Llama 2 (0) 2023.10.19 LLMs in Production 작동원리 기초부터 그냥 내가 기초부터 만들어 보자 | Manning (0) 2023.10.19 Finetune llama2-70b and codellama on MacBook Air without quantization /SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝 (0) 2023.10.17 Shortbread - AI를 이용해 만화 만들기 (0) 2023.10.17 AI 사진 생성 유료/Stable Diffusion을 활용한2D/2.5D/실사 이미지 제작 (0) 2023.10.09 The Ethics of AI & Machine Learning [Full Course] (0) 2023.10.07 LangChain Crash Course for Beginners | freeCodeCamp.org (0) 2023.09.28 GN⁺: Google이 Quora의 (틀린) ChatGPT 답변을 정답으로 선택 (twitter.com/8teapi) (0) 2023.09.28