logo
사건

QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시

인증
중국 Beijing Qianxing Jietong Technology Co., Ltd. 인증
중국 Beijing Qianxing Jietong Technology Co., Ltd. 인증
고객 검토
베이징 첸싱 지에통 테크 주식회사의 영업 사원은 매우 전문적이고 참을성 있습니다. 그들은 빨리 인용을 제공할 수 있습니다. 제품의 품질과 패키징은 또한 매우 좋습니다. 우리의 협력은 매우 매끄럽습니다.

—— 《Festfing DV》LLC

내가 긴급히 인텔 CPU와 토시바 SSD를 찾고 있었늘 때, 베이징 첸싱 지에통 기술 주식회사로부터의 샌디는 나에게 많은 도움을 주었고, 나에게 빨리 필요로 한 제품을 가져다 주었습니다. 나는 정말로 그녀를 압니다.

—— 고양이 엔

베이징 첸싱 지에통 기술 주식회사의 샌디는 내가 서버를 구입할 때 제시간에 나에게 구성 오류를 상기시킬 수 있는 매우 주의깊은 판매원을 있습니다. 엔지니어들은 또한 매우 전문적이고, 빠르게 테스팅 프로세스를 완료할 수 있습니다.

—— 스트렐킨 미하일 블라드미로비치

베이징 첸싱지에통과의 협업에 매우 만족합니다. 제품 품질이 훌륭하고, 배송도 항상 제 시간에 이루어집니다. 영업팀은 전문적이고, 인내심이 많으며, 모든 질문에 매우 친절하게 답변해 줍니다. 그들의 지원에 진심으로 감사드리며, 장기적인 파트너십을 기대합니다. 강력 추천합니다!

—— Ahmad Navid

품질: 제 공급업체와의 좋은 경험. 미크로틱 RB3011은 이미 사용되었지만 매우 좋은 상태로 모든 것이 완벽하게 작동합니다. 통신은 빠르고 원활했습니다.그리고 제 모든 걱정은 빠르게 해결되었습니다.매우 신뢰할 수 있는 공급자

—— 제란 콜레시오

제가 지금 온라인 채팅 해요

QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시

May 11, 2026

QNAP Systems는 개인 인프라에 대규모 언어 모델, RAG 기반 검색 및 생성 AI 워크로드를 배포하려는 기업을 위해 설계된 엣지 AI 스토리지 서버인 QAI-h1290FX를 공개했습니다. 데이터 개인 정보 보호, 짧은 대기 시간 처리, 규정 준수 및 로컬 운영 제어에 최적화된 하드웨어를 통해 기업은 민감한 데이터를 퍼블릭 클라우드 환경으로 전송하지 않고도 온프레미스에서 AI 워크플로우를 실행할 수 있습니다.

최신 회사 사례 QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시  0

QNAP QAI h1290FX 전면 패널


QAI-h1290FX를 사용하면 기업은 원시 데이터를 기업 경계 내에 국한시키면서 직원 교육, 정책 조회 및 내부 지식 검색을 위한 내부 AI 도우미를 구축할 수 있습니다. 법률, 재무, HR 및 운영 부서는 계약서, 보고서 및 내부 아카이브를 분석하기 위한 개인 RAG 파이프라인을 구축하여 기존 키워드 검색보다 더 많은 상황별 통찰력을 제공할 수 있습니다. 크리에이티브 팀은 Stable Diffusion 및 ComfyUI를 포함한 생성 이미지 도구를 운영하여 디자인 워크플로를 간소화할 수 있으며, IT 관리자는 n8n과 같은 자동화 플랫폼을 활용하여 AI 추론을 실행하고 콘텐츠를 생성하며 비즈니스 인프라 전체에 시스템 경고를 전달할 수 있습니다.

QNAP QAI-h1290FX 구성요소, 확장 및 I/O


AMD EPYC 7302P CPU로 구동되고 12개의 U.2 NVMe/SATA SSD 드라이브 베이가 장착된 QAI-h1290FX는 대기 시간에 민감한 AI 작업에 맞게 맞춤화된 올플래시 스토리지 아키텍처와 엔터프라이즈급 컴퓨팅 성능을 통합합니다. 이 16코어, 32스레드 프로세서는 AI 추론, 가상화 및 다중 작업 병렬 처리를 지원합니다. 한편, 고속 SSD 어레이는 빈번한 모델 실행, 지속적인 데이터 스트리밍 및 데이터 세트, 임베딩, 문서 및 AI 생성 출력에 대한 빠른 액세스를 수용하도록 구축되었습니다.

최신 회사 사례 QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시  1

서버는 선택적으로 NVIDIA RTX PRO 6000 Blackwell Max-Q 워크스테이션 GPU를 지원하여 리소스 집약적인 로컬 AI 워크로드를 처리하기 위해 최대 96GB VRAM을 제공합니다. CUDA, TensorRT 및 Transformer Engine 가속에 대한 기본 호환성을 갖춘 이 시스템은 온프레미스 LLM 추론, 이미지 합성 및 딥 러닝 계산을 촉진하므로 독립적으로 구축된 GPU 워크스테이션이 필요하지 않습니다.

QNAP QAI h1290FX 후면 패널


QAI-h1290FX에는 25GbE SFP28 SmartNIC 포트 2개와 Wake-on-LAN 기능이 있는 2.5GbE 포트 2개를 포함한 엔터프라이즈급 네트워킹이 장착되어 있습니다. 하드웨어 확장을 위해 4개의 PCIe Gen 4 슬롯(x16 슬롯 3개, x8 슬롯 1개)을 사용할 수 있으며 업그레이드된 네트워크 어댑터, 외부 GPU 및 기타 호환 가능한 확장 카드를 지원합니다. 추가 I/O 사양에는 USB 3.2 Gen 1 포트 3개, 점보 프레임 전송, SR-IOV 및 GPU 패스스루가 포함됩니다. 12개의 드라이브 베이는 2.5인치 SATA SSD와 U.2 NVMe PCIe Gen4 x4 스토리지 미디어를 보편적으로 지원합니다.


최신 회사 사례 QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시  2
최신 회사 사례 QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시  3
최신 회사 사례 QNAP, 개인 LLM 및 생성적 AI 워크로드를 위한 QAI-h1290FX Edge AI 스토리지 서버 출시  4


QNAP Systems는 개인 인프라에 LLM, RAG 검색 및 생성 AI를 배포하는 기업을 위해 구축된 엣지 AI 스토리지 서버인 QAI-h1290FX를 출시했습니다. 데이터 개인 정보 보호, 짧은 대기 시간 및 로컬 거버넌스를 위해 설계된 이 시스템을 통해 기업은 민감한 데이터를 퍼블릭 클라우드로 전송하지 않고도 AI 워크로드를 안전하게 실행할 수 있습니다.

QNAP QAI h1290FX 전면 패널


QAI-h1290FX는 교육, 정책 쿼리 및 사내 지식 검색을 위한 내부 AI 보조자를 지원하여 기업 경계 내에서 데이터를 유지합니다. 법무, 재무, HR 등의 부서에서는 개인 RAG 파이프라인을 구축하여 기본 키워드 검색보다 더 풍부한 컨텍스트로 내부 문서를 분석할 수 있습니다. 크리에이티브 팀은 이미지 생성 도구를 실행할 수 있고, IT 직원은 자동화 플랫폼을 활용하여 추론 및 시스템 경고를 실행할 수 있습니다.

QNAP QAI-h1290FX 구성요소, 확장 및 I/O


AMD EPYC 7302P CPU와 12개의 U.2 SSD 베이를 갖춘 이 올플래시 서버는 AI 워크로드에 최적화된 성능을 제공합니다. 16코어 프로세서는 추론 및 병렬 작업을 처리하는 동시에 고속 SSD 아키텍처를 통해 데이터 세트, 임베딩 및 모델 파일에 빠르게 액세스할 수 있습니다.

이 시스템은 96GB VRAM이 포함된 NVIDIA RTX PRO 6000 Blackwell GPU를 선택적으로 지원합니다. CUDA 및 TensorRT 가속을 활용하여 맞춤형 GPU 워크스테이션 없이도 로컬 LLM 추론 및 딥 러닝을 단순화합니다.

QNAP QAI h1290FX 후면 패널


25GbE SFP28 포트 2개, 2.5GbE 포트 2개, 하드웨어 확장을 위한 PCIe Gen 4 슬롯 4개를 갖추고 있습니다. 추가 사양에는 USB 3.2 포트, GPU 패스스루, U.2 NVMe 및 SATA SSD와의 광범위한 호환성이 포함됩니다.

빠른 스토리지, GPU 가속 및 로컬 제어를 기반으로 구축됨


QNAP의 ZFS 기반 QuTS Hero OS를 실행하는 QAI-h1290FX는 데이터 무결성 보호, 포괄적인 스냅샷 및 인라인 중복 제거 기능을 제공합니다. 이러한 기능은 문서, 임베딩, 모델 및 교육 리소스에서 대량으로 반복되는 데이터를 처리하는 AI 워크로드에 적합합니다.

개발자는 Container Station을 통해 GPU 가속 컨테이너에 AI 도구를 배포할 수 있으며 Virtualization Station은 VM 기반 GPU 패스스루를 지원합니다. 이러한 유연한 할당은 리소스를 최적화하고 다양한 배포 요구 사항에 맞게 컨테이너 민첩성과 가상 머신 격리의 균형을 유지합니다.

AnythingLLM, OpenWebUI 및 Ollama가 사전 로드된 이 장치는 개인 LLM 배포를 가속화합니다. QNAP는 또한 Stable Diffusion, ComfyUI, n8n 및 vLLM을 통합하여 하나의 로컬 플랫폼에서 텍스트 생성, 이미지 생성, 자동화 및 추론을 통합하고 있습니다.

엔터프라이즈 AI 팀을 위한 로컬 인프라 옵션


플랫폼은 온프레미스 AI 배포를 위한 수동 작업 부하를 줄여 반복적인 하드웨어 조립 및 환경 구성을 제거합니다. 사용자는 전체 데이터 제어를 유지하고 클라우드 의존도를 줄이면서 AI 애플리케이션을 직접 시작할 수 있습니다.
QNAP JBOD 인클로저와 호환되는 이 서버는 증가하는 데이터 세트, 지식 기반 및 AI 생성 파일을 수용할 수 있도록 원활한 스토리지 확장을 가능하게 합니다.

베이징 Qianxing Jietong Technology Co., Ltd.
양샌디/글로벌 전략 이사
WhatsApp/위챗: +86 13426366826
이메일: yangyd@qianxingdata.com
웹사이트: www.qianxingdata.com/www.storagesserver.com
사업 초점:
ICT 제품 유통/시스템 통합 및 서비스/인프라 솔루션
20년 이상의 IT 유통 경험을 바탕으로 당사는 선도적인 글로벌 브랜드와 협력하여 신뢰할 수 있는 제품과 전문 서비스를 제공합니다.
“기술을 활용한 지능형 세상 구축” 신뢰할 수 있는 ICT 제품 서비스 제공업체!
연락처 세부 사항
Beijing Qianxing Jietong Technology Co., Ltd.

담당자: Ms. Sandy Yang

전화 번호: 13426366826

회사에 직접 문의 보내기 (0 / 3000)