머신러닝_MachineLearning_AI
-
Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 Llama 2머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 19. 18:43
https://news.hada.io/topic?id=11285&utm_source=discord&utm_medium=bot&utm_campaign=1480 Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 | GeekNews광범위한 종류의 기기(폐기된 크롬북부터 고밀도 유니커널 까지)에서 호환성을 보장 하는 것을 목표L2E들이 네트워크로 연결되고 분산되고 자체 조정되는 소규모 전문 LLM Army를 구축하고 활용하news.hada.io Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 Llama 2 (github.com/trholding)
-
Rust Machine Learning framework(linfa)머신러닝_MachineLearning_AI/Rust❤️MachineLearning 2023. 10. 19. 12:25
https://github.com/rust-ml/linfa/ GitHub - rust-ml/linfa: A Rust machine learning framework.A Rust machine learning framework. Contribute to rust-ml/linfa development by creating an account on GitHub.github.com
-
LLMs in Production 작동원리 기초부터 그냥 내가 기초부터 만들어 보자 | Manning머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 19. 07:22
https://www.manning.com/books/llms-in-production LLMs in Production Learn how to put Large Language Model-based applications into production safely and efficiently. Large Language Models (LLMs) are the foundation of AI tools like ChatGPT, LLAMA and Bard. This practical book offers clear, example-rich explanations of ho www.manning.com
-
Finetune llama2-70b and codellama on MacBook Air without quantization /SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 17. 09:41
https://news.hada.io/topic?id=11245&utm_source=weekly&utm_medium=email&utm_campaign=202342 SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 | GeekNews 애플 M1/M2 및 소비자용 nVidia GPU에서 LLama2-70B 같은 모델을 파인튜닝양자화(quantization)를 사용하는 대신, 포워드/백워드 패스 모두에서 모델의 일부를 SSD또는 메인 메모리로 오프로드 하는 방식현 news.hada.io ▲ SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝 (github.com/okuvshynov) 애플 M1/M2 및 소비자용 nVidia ..