머신러닝_MachineLearning_AI/ChatGPT❤️활용하기
-
Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 Llama 2머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 19. 18:43
https://news.hada.io/topic?id=11285&utm_source=discord&utm_medium=bot&utm_campaign=1480 Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 | GeekNews광범위한 종류의 기기(폐기된 크롬북부터 고밀도 유니커널 까지)에서 호환성을 보장 하는 것을 목표L2E들이 네트워크로 연결되고 분산되고 자체 조정되는 소규모 전문 LLM Army를 구축하고 활용하news.hada.io Llama 2 Everywhere (L2E) - 스탠드얼론, 바이너리 포터블, 부팅 가능한 Llama 2 (github.com/trholding)
-
LLMs in Production 작동원리 기초부터 그냥 내가 기초부터 만들어 보자 | Manning머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 19. 07:22
https://www.manning.com/books/llms-in-production LLMs in Production Learn how to put Large Language Model-based applications into production safely and efficiently. Large Language Models (LLMs) are the foundation of AI tools like ChatGPT, LLAMA and Bard. This practical book offers clear, example-rich explanations of ho www.manning.com
-
Finetune llama2-70b and codellama on MacBook Air without quantization /SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 17. 09:41
https://news.hada.io/topic?id=11245&utm_source=weekly&utm_medium=email&utm_campaign=202342 SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 | GeekNews 애플 M1/M2 및 소비자용 nVidia GPU에서 LLama2-70B 같은 모델을 파인튜닝양자화(quantization)를 사용하는 대신, 포워드/백워드 패스 모두에서 모델의 일부를 SSD또는 메인 메모리로 오프로드 하는 방식현 news.hada.io ▲ SlowLlama - Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝 (github.com/okuvshynov) 애플 M1/M2 및 소비자용 nVidia ..
-
Shortbread - AI를 이용해 만화 만들기머신러닝_MachineLearning_AI/ChatGPT❤️활용하기 2023. 10. 17. 09:35
https://news.hada.io/topic?id=11301&utm_source=weekly&utm_medium=email&utm_campaign=202342 Shortbread - AI를 이용해 만화 만들기 | GeekNews 누구나 만화를 만들수 있게 도와주는 도구온보딩 프로세스를 통해 60%를 만든 후에, 에디터를 통해 자신만의 만화로 만들기GPT 3.5 Turbo: 코믹 스크립트 생성, 레이아웃, 캐릭터, 장면, SD 프롬프트, news.hada.io Shortbread - AI를 이용해 만화 만들기 (shortbread.ai) 누구나 만화를 만들수 있게 도와주는 도구 온보딩 프로세스를 통해 60%를 만든 후에, 에디터를 통해 자신만의 만화로 만들기 GPT 3.5 Turbo: 코믹 스크립트 생..