QNAP Systems는 개인 인프라에 대규모 언어 모델, RAG 기반 검색 및 생성 AI 워크로드를 배포하려는 기업을 위해 설계된 엣지 AI 스토리지 서버인 QAI-h1290FX를 공개했습니다. 데이터 개인 정보 보호, 짧은 대기 시간 처리, 규정 준수 및 로컬 운영 제어에 최적화된 하드웨어를 통해 기업은 민감한 데이터를 퍼블릭 클라우드 환경으로 전송하지 않고도 온프레미스에서 AI 워크플로우를 실행할 수 있습니다.
QNAP QAI h1290FX 전면 패널
QAI-h1290FX를 사용하면 기업은 원시 데이터를 기업 경계 내에 국한시키면서 직원 교육, 정책 조회 및 내부 지식 검색을 위한 내부 AI 도우미를 구축할 수 있습니다. 법률, 재무, HR 및 운영 부서는 계약서, 보고서 및 내부 아카이브를 분석하기 위한 개인 RAG 파이프라인을 구축하여 기존 키워드 검색보다 더 많은 상황별 통찰력을 제공할 수 있습니다. 크리에이티브 팀은 Stable Diffusion 및 ComfyUI를 포함한 생성 이미지 도구를 운영하여 디자인 워크플로를 간소화할 수 있으며, IT 관리자는 n8n과 같은 자동화 플랫폼을 활용하여 AI 추론을 실행하고 콘텐츠를 생성하며 비즈니스 인프라 전체에 시스템 경고를 전달할 수 있습니다.
QNAP QAI-h1290FX 구성요소, 확장 및 I/O
AMD EPYC 7302P CPU로 구동되고 12개의 U.2 NVMe/SATA SSD 드라이브 베이가 장착된 QAI-h1290FX는 대기 시간에 민감한 AI 작업에 맞게 맞춤화된 올플래시 스토리지 아키텍처와 엔터프라이즈급 컴퓨팅 성능을 통합합니다. 이 16코어, 32스레드 프로세서는 AI 추론, 가상화 및 다중 작업 병렬 처리를 지원합니다. 한편, 고속 SSD 어레이는 빈번한 모델 실행, 지속적인 데이터 스트리밍 및 데이터 세트, 임베딩, 문서 및 AI 생성 출력에 대한 빠른 액세스를 수용하도록 구축되었습니다.
서버는 선택적으로 NVIDIA RTX PRO 6000 Blackwell Max-Q 워크스테이션 GPU를 지원하여 리소스 집약적인 로컬 AI 워크로드를 처리하기 위해 최대 96GB VRAM을 제공합니다. CUDA, TensorRT 및 Transformer Engine 가속에 대한 기본 호환성을 갖춘 이 시스템은 온프레미스 LLM 추론, 이미지 합성 및 딥 러닝 계산을 촉진하므로 독립적으로 구축된 GPU 워크스테이션이 필요하지 않습니다.
QNAP QAI h1290FX 후면 패널
QAI-h1290FX에는 25GbE SFP28 SmartNIC 포트 2개와 Wake-on-LAN 기능이 있는 2.5GbE 포트 2개를 포함한 엔터프라이즈급 네트워킹이 장착되어 있습니다. 하드웨어 확장을 위해 4개의 PCIe Gen 4 슬롯(x16 슬롯 3개, x8 슬롯 1개)을 사용할 수 있으며 업그레이드된 네트워크 어댑터, 외부 GPU 및 기타 호환 가능한 확장 카드를 지원합니다. 추가 I/O 사양에는 USB 3.2 Gen 1 포트 3개, 점보 프레임 전송, SR-IOV 및 GPU 패스스루가 포함됩니다. 12개의 드라이브 베이는 2.5인치 SATA SSD와 U.2 NVMe PCIe Gen4 x4 스토리지 미디어를 보편적으로 지원합니다.
QNAP Systems는 개인 인프라에 LLM, RAG 검색 및 생성 AI를 배포하는 기업을 위해 구축된 엣지 AI 스토리지 서버인 QAI-h1290FX를 출시했습니다. 데이터 개인 정보 보호, 짧은 대기 시간 및 로컬 거버넌스를 위해 설계된 이 시스템을 통해 기업은 민감한 데이터를 퍼블릭 클라우드로 전송하지 않고도 AI 워크로드를 안전하게 실행할 수 있습니다.
QNAP QAI h1290FX 전면 패널
QAI-h1290FX는 교육, 정책 쿼리 및 사내 지식 검색을 위한 내부 AI 보조자를 지원하여 기업 경계 내에서 데이터를 유지합니다. 법무, 재무, HR 등의 부서에서는 개인 RAG 파이프라인을 구축하여 기본 키워드 검색보다 더 풍부한 컨텍스트로 내부 문서를 분석할 수 있습니다. 크리에이티브 팀은 이미지 생성 도구를 실행할 수 있고, IT 직원은 자동화 플랫폼을 활용하여 추론 및 시스템 경고를 실행할 수 있습니다.
QNAP QAI-h1290FX 구성요소, 확장 및 I/O
AMD EPYC 7302P CPU와 12개의 U.2 SSD 베이를 갖춘 이 올플래시 서버는 AI 워크로드에 최적화된 성능을 제공합니다. 16코어 프로세서는 추론 및 병렬 작업을 처리하는 동시에 고속 SSD 아키텍처를 통해 데이터 세트, 임베딩 및 모델 파일에 빠르게 액세스할 수 있습니다.
이 시스템은 96GB VRAM이 포함된 NVIDIA RTX PRO 6000 Blackwell GPU를 선택적으로 지원합니다. CUDA 및 TensorRT 가속을 활용하여 맞춤형 GPU 워크스테이션 없이도 로컬 LLM 추론 및 딥 러닝을 단순화합니다.
QNAP QAI h1290FX 후면 패널
25GbE SFP28 포트 2개, 2.5GbE 포트 2개, 하드웨어 확장을 위한 PCIe Gen 4 슬롯 4개를 갖추고 있습니다. 추가 사양에는 USB 3.2 포트, GPU 패스스루, U.2 NVMe 및 SATA SSD와의 광범위한 호환성이 포함됩니다.
빠른 스토리지, GPU 가속 및 로컬 제어를 기반으로 구축됨
QNAP의 ZFS 기반 QuTS Hero OS를 실행하는 QAI-h1290FX는 데이터 무결성 보호, 포괄적인 스냅샷 및 인라인 중복 제거 기능을 제공합니다. 이러한 기능은 문서, 임베딩, 모델 및 교육 리소스에서 대량으로 반복되는 데이터를 처리하는 AI 워크로드에 적합합니다.
개발자는 Container Station을 통해 GPU 가속 컨테이너에 AI 도구를 배포할 수 있으며 Virtualization Station은 VM 기반 GPU 패스스루를 지원합니다. 이러한 유연한 할당은 리소스를 최적화하고 다양한 배포 요구 사항에 맞게 컨테이너 민첩성과 가상 머신 격리의 균형을 유지합니다.
AnythingLLM, OpenWebUI 및 Ollama가 사전 로드된 이 장치는 개인 LLM 배포를 가속화합니다. QNAP는 또한 Stable Diffusion, ComfyUI, n8n 및 vLLM을 통합하여 하나의 로컬 플랫폼에서 텍스트 생성, 이미지 생성, 자동화 및 추론을 통합하고 있습니다.
엔터프라이즈 AI 팀을 위한 로컬 인프라 옵션
플랫폼은 온프레미스 AI 배포를 위한 수동 작업 부하를 줄여 반복적인 하드웨어 조립 및 환경 구성을 제거합니다. 사용자는 전체 데이터 제어를 유지하고 클라우드 의존도를 줄이면서 AI 애플리케이션을 직접 시작할 수 있습니다.
QNAP JBOD 인클로저와 호환되는 이 서버는 증가하는 데이터 세트, 지식 기반 및 AI 생성 파일을 수용할 수 있도록 원활한 스토리지 확장을 가능하게 합니다.
베이징 Qianxing Jietong Technology Co., Ltd.
양샌디/글로벌 전략 이사
WhatsApp/위챗: +86 13426366826
이메일: yangyd@qianxingdata.com
웹사이트: www.qianxingdata.com/www.storagesserver.com
사업 초점:
ICT 제품 유통/시스템 통합 및 서비스/인프라 솔루션
20년 이상의 IT 유통 경험을 바탕으로 당사는 선도적인 글로벌 브랜드와 협력하여 신뢰할 수 있는 제품과 전문 서비스를 제공합니다.
“기술을 활용한 지능형 세상 구축” 신뢰할 수 있는 ICT 제품 서비스 제공업체!
양샌디/글로벌 전략 이사
WhatsApp/위챗: +86 13426366826
이메일: yangyd@qianxingdata.com
웹사이트: www.qianxingdata.com/www.storagesserver.com
사업 초점:
ICT 제품 유통/시스템 통합 및 서비스/인프라 솔루션
20년 이상의 IT 유통 경험을 바탕으로 당사는 선도적인 글로벌 브랜드와 협력하여 신뢰할 수 있는 제품과 전문 서비스를 제공합니다.
“기술을 활용한 지능형 세상 구축” 신뢰할 수 있는 ICT 제품 서비스 제공업체!



