이 가이드는 LM Studio 및 PocketPal AI를 이용한 DeepSeek R1 로컬 실행 방법에 대해 설명합니다.
‘지브리 이미지’ 변환으로 유명세를 떨친 OpenAI의 ChatGPT o1 모델보다 성능이 뛰어나다고 주장하는 DeepSeek R1은 무료 오픈소스로 로컬에서 실행하면 추가 비용 없이 사용 가능한 장점이 있습니다.
그러나 개인정보 보호에 대한 우려도 있습니다. 물론 DeepSeek R1 모델 자체가 개인정보를 침해하거나 보안에 취약하다는 것은 아닙니다.
다만 DeepSeek R1은 공개적으로 훈련된 LLM(Large Language Model) 대규모 언어 모델로, 학습에 사용된 데이터가 명확하게 검증된 것이 아닙니다.
예를 들어 웹에서 수집한 데이터에 개인 정보가 포함되어 있을 수도 있으며, 민감한 정보를 물어보면 데이터에 포함된 정보를 토대로 개인정보를 침해할 수 있는 유사 정보를 생성할 수 있다는 것이죠.
또한 중국의 경우 정부가 필요하다고 판단하면 기업이 보유한 데이터를 열람할 수 있으며, GDPR 등 글로벌 데이터 보호법을 준수하기 않으므로 자신의 데이터를 삭제하는 등 권리를 보장 받을 수 없습니다.
🔗 ChatGPT 지브리 사진 변환 초상권 안전하게 지키는 방법 (OpenAI 개인 정보 포털)
따라서 DeepSeek R1을 사용해야 할 경우 로컬에서 실행하는 것이 보다 안전할 수 있습니다.
LM Studio, PocketPal AI 사용, DeepSeek R1 로컬 실행 방법
DeepSeek R1 모델에는 1.5B, 7B, 14B, 32B, 70B 등 다양한 매개변수를 갖춘 Distilled 모델과 671B 매개변수를 갖춘 Flagship 모델 등 여러 모델이 있습니다.
14B 이상 모델을 사용하려면 더 많은 메모리와 더 빠른 CPU 및 GPU 사양을 갖춘 시스템이 필요합니다.
01 LM Studio 사용, PC에서 DeepSeek R1 로컬 실행
LM Studio는 Windows, macOS 또는 Linux PC에서 DeepSeek R1을 로컬로 GUI 환경에서 실행할 수 있는 가장 간단한 방법 중 하나입니다.
LM Studio 실행을 위해서는 다음과 같은 요구 조건이 있습니다.
- Windows : x64 및 ARM(Snapdragon X Elite) 모두 지원
- Linux : Ubuntu 20.04 이상 x64 필요
- Mac : macOS 13.4 이상 설치된 Apple M1, M2, M3, M4 칩
공식 권장 사양은 RAM 16GB이지만 8GB RAM을 장착한 소형 모델을 실행할 수도 있습니다.
RAM 192GB 이상인 경우 671B Flagship DeepSeek R1 모델도 실행할 수 있습니다.
STEP 01. LM Studio 설치

LM Studio 공식 웹 사이트에 접속하여 시스템 환경에 맞는 설치 파일을 다운로드합니다.
예를 들어 Windows 환경에서는 [Download LM Studio for Windows] 버튼을 클릭합니다.

Mac 및 Linux 환경에서는 오른쪽 상단 [Download] 버튼을 클릭하고, 시스템 환경에 맞게 OS 및 Architecture, Version 선택 후 다운로드할 수 있습니다.

LM Studio 설치 마법사에서 프로그램을 사용할 사용자 선택 후 [다음 >] 버튼을 클릭합니다.

LM Studio 설치 폴더 설정 후 [설치] 버튼을 클릭합니다.
🔦 참고 : 기본 설치 경로는 "C:\Users\%username%\AppData\Local\Programs\LM Studio" 입니다. 변경하시려면 [찾아보기] 버튼을 클릭하여 위치를 지정할 수 있습니다.

설치가 완료되면 [마침] 버튼을 클릭하여 설치 마법사를 종료합니다.
🔦 참고 : 'LM Studio 실행하기(R)' 옵션 활성화 시 설치 마법사 종료 후 도구를 실행합니다.
모든 단계를 완료하면 LM Studio 실행 후 사용하려는 모델 선택 등 다음 지침을 따르시기 바랍니다.
STEP 02. LM Studio DeepSeek R1 로컬 모델 설정

LM Studio 실행한 후 오른쪽 상단의 “Skip onboarding”을 클릭합니다.

돋보기 모양의 [검색] 아이콘을 클릭합니다.
🔦 참고 : 검색 아이콘이 보이지 않을 경우 하단에서 "Power User" 유형으로 전환합니다.

LM Studio에서 사용할 모델을 선택하여 다운로드합니다.
예를 들어 7B 매개변수를 사용하려면 “DeepSeek R1 Distill (Qwen 7B)” 모델을 설치합니다.
만약 Model Search 목록에서 검색되지 않는 모델은 “Hugging Face”에서 GGUF 형식의 파일을 직접 다운로드하여 모델 폴더에 직접 추가할 수도 있습니다.
C:\Users\%username%\.lmstudio\models

다운로드 페이지에 표시된 용량만 충족한다면 모든 DeepSeek R1 모델을 다운로드할 수 있습니다.

모델을 다운로드한 후 [▷ Load Model] 버튼을 클릭하면 채팅 창이 열립니다.

질문 사항을 입력하고 로컬에서 DeepSeek R1 모델과 대화를 시작합니다.

상태 표시줄 오른쪽 하단에서 현재 사용 중인 모델의 리소스 사용량을 모니터링 할 수 있습니다.

모델 설정을 변경하려면 상단의 모델 이름 왼쪽에 있는 톱니바퀴 모양의 [설정] 아이콘을 클릭합니다.
- Context Length : 모델의 토큰 최대 길이, 메모리 허용 범위 내에서 증가
- GPU Offload : GPU에서 계산할 개별 모델 레이어 설정
- CPU Thread Pool Size : 모델이 동시에 사용할 수 있는 CPU Thread 개수
- Evaluation Batch Size : 모델이 한 번에 처리하는 토큰의 개수

LM Studio에서 사용 중인 모델을 제거하고 싶다면 폴더 모양의 [내 모델 > LLMs] 메뉴를 클릭합니다.
현재 설치된 모델 목록에서 해당 모델 끝의 [⋯] 아이콘을 누르고 [삭제] 옵션을 선택합니다.
확인 메시지가 표시되면 [삭제] 버튼을 다시 클릭하여 제거할 수 있습니다.
LM Satudio는 터미널을 사용하지 않고도 PC에서 GUI 환경으로 DeepSeek R1 모델을 로컬로 사용할 수 있는 가장 쉬운 방법 중 하나입니다.
Ollama를 사용하는 등 다른 옵션도 선택할 수 있지만, 이 경우 터미널을 사용해야 합니다.
STEP 03. DeepSeek R1 개인정보 보호 팁
DeepSeek R1 모델을 LM Studio에서 로컬로 실행한다고 해도, 입력하는 내용은 여전히 모델에 저장되거나 기록될 수 있습니다.
예를 들어 LM Studio나 타사 도구에서 대화 기록을 캐시 데이터로 저장하는 경우가 많습니다.

만약 이러한 기록이 외부로 유출되면 개인정보 문제가 발생할 수 있습니다.
따라서 DeepSeek R1을 회사 업무나 민감한 정보가 담긴 내용으로 사용될 경우, 로컬 PC가 해킹 당하거나 다른 프로그램과 연동될 때 이러한 정보가 유출될 위험이 있습니다.
DeepSeek R1 모델을 로컬에서 사용할 때 안전하게 사용하기 위해서는 다음과 같이 주의가 필요합니다.
- 이름, 주민번호, 계좌 등 중요한 정보는 입력하지 않습니다.
- 대화 기록 저장 옵션이 제공되지 않으므로, 주기적인 기록 삭제가 필요합니다.
- 인터넷 차단 등 오프라인 환경에서만 사용합니다.
DeepSeek R1 모델 사용 자체가 위험한 것은 아니지만, 사용자가 어떻게 사용하느냐에 따라 개인정보 노출 등 위험이 뒤 따를 수 있습니다.
로컬에서 실행한다고 무조건 안전하지 않는 것을 기억하시기 바랍니다.
LM Studio 캐시 및 대화 기록 삭제 방법 (Windows 기준)
LM Studio에서 DeepSeek R1 모델 사용 중 삭제해도 되는 파일은 다음과 같습니다.
- logs 폴더 전체
- *.conversation.json 파일 또는 유사한 이름의 파일 (대화 기록/버전에 따라 이름 상이)
- settings.json (환경 설정 파일/언어, 테마 등 다시 설정 필요)
다음은 LM Studio 0.3.14 버전 및 “DeepSeek-Coder-V2-Lite-Instruct” 모델 기준으로 작성된 자동 삭제 스크립트입니다.
@echo off
echo Cleaning up LM Studio cache files...
taskkill /F /IM "LM Studio.exe"
rmdir /S /Q "%APPDATA%\LM Studio\logs"
del /Q "C:\Users\%username%\.lmstudio\conversations\*.conversation.json"
echo Cleanup completed.
pause
파일 이름은 “clear_deepseek_cache.bat”로 저장해두면, 필요할 때 손쉽게 사용할 수 있습니다.
🔦 참고 : LM Studio 및 DeepSeek R1 버전에 따라 파일 경로 및 이름은 상이할 수 있으므로, 사용 환경에 맞게 수정하여 사용하시기 바랍니다.
02 PocketPal AI 사용, 휴대전화 DeepSeek R1 로컬 실행
테스트 환경에서 사용한 앱은 PocketPal AI로 iOS 또는 Android 장치에서 LLM 모델을 로컬로 사용할 수 있습니다.
STEP 01. PocketPal AI 설치

Google Play 스토어 또는 App Store에서 “PocketPal AI” 앱을 설치합니다.
PocketPal AI 앱 실행 후 [Download Model] 버튼을 선택합니다.
STEP 02. DeepSeek R1 설치

Available to Download 메뉴를 확장하거나 하단의 [+] 버튼을 선택합니다.
다음으로 “Add from Hugging Face” 항목을 선택합니다.

목록에서 ‘DeepSeek R1’ 모델을 검색하여 찾아 선택합니다.
그런 다음 사용 가능한 GGUF 파일 중 하나를 선택하여 [다운로드] 아이콘을 누릅니다.
STEP 02. DeepSeek R1 모델 Load 및 채팅 사용

다운로드가 완료되면 메인 화면으로 돌아가 선택한 모델의 [Load] 버튼을 누릅니다.
설치한 DeepSeek R1 모델이 로드되고 채팅을 시작할 수 있습니다.
마치며
LM Studio 도구를 활용한 DeepSeek R1 모델의 로컬 실행 방법을 제대로 익히면, 외부 서버에 의존하지 않고도 강력한 대규모 언어 모델을 자유롭게 사용할 수 있습니다.
특히 네트워크가 연결되지 않은 상태에서도 동작하기 때문에 인터넷에 데이터를 전송하기 어려운 작업, 예를 들어 중요한 업무나, 자료 등을 활용할 때 적합합니다.
그러나 한 가지 주의할 점도 있습니다. DeepSeek R1 모델을 비롯한 대규모 언어 모델은 입력된 데이터를 바탕으로 작동하기 때문에 민감한 개인정보나 비밀번호 등은 입력하지 않는 것이 좋습니다.
로컬에서 작동하더라도 관련 데이터가 남아 있을 수 있으므로, 항상 주의하시는 것이 좋습니다.


