계기 이게 llm 관련글로 써야하나 했지만, 회사에서 데스크탑 세팅하는 겸 정리하려 한다.cuda 12.8.1 부터 sm120을 지원하는 것으로 나와 있음SmolVLA 학습 하려는데 cuda 12.8.0에서 안되길래 그냥 다시 설치하기로 했다.vLLM on RTX 5070TI vLLM on RTX 5070Ti: Our Approach to Affordable and Efficient LLM ServingFrom overcoming CUDA and PyTorch compatibility hurdles to achieving state-of-the-art performance, this guide shares our hands-on approach…blog.geogo.in환경ubuntu 24.04rtx 50..