Neuchips社は、Vecow社およびGSH社と提携し、オフライン世代のAIで独自のデータ処理を加速します。

NeuchipsViperシリーズカードを使用することで、コラボレーションは電力効率とオフラインLLMも実現し、企業に最大限のプライバシーとセキュリティをもたらす。

台北、2025年3月6日 /PRNewswire/ -- Embedded World 2025に先立ち、Neuchips大手人工知能(AI)特定用途向け集積回路(ASIC)プロバイダーの は、VecowおよびGolden Smart Home(GSH)Technology Corp.のShareGuruとのコラボレーションを発表します。このパートナーシップは、プライベートで安全、かつ電力効率に優れたAIソリューションを用いてSQLデータ処理に革命を起こすことを目的としており、自然言語リクエストを通じて社内データベースからリアルタイムの洞察を提供する。

Neuchips partners with GSH and Vecow to launch AI solution that converts conversations to SQL for seamless database queries.
Neuchips partners with GSH and Vecow to launch AI solution that converts conversations to SQL for seamless database queries.

Embedded World 2025311日~13日、ドイツ・ニュルンベルク)のホール3ブース#3-449 で、NeuchipsVecowにぜひご参加ください。

「Neuchipsのケン・ラウCEOは、「VecowとGSHとのコラボレーションは、産業用AI導入の未来を象徴しています。「Embedded World 2025のベコーのブースでは、わずか45Wの消費電力で12Bのパラメータモデルをサポートするなど、当社のViper AIアクセラレータカードのユニークな機能が、ベコーの堅牢な産業用エッジAIコンピューティングシステムとGSHのShareGuru SLMソリューションをどのように補完するかを体験していただけます。この強力な組み合わせは、現代の産業環境の厳しい要件を満たす、独自のデータの安全で効率的なAI処理を実現します。Vecowと提携し、この生成的なAIイノベーションを企業向けアプリケーションの分野に導入できることを誇りに思います。」

「オンプレミスの生成AIアプリケーションが拡大するにつれ、マルチモーダル大規模言語モデル(LLM)の需要が急速に高まっています。「エッジAIコンピューティング・ソリューション・サービスのプロバイダーとして、VecowはNeuchipsと提携し、最先端のRAGベースのLLMソリューションを開発します。従来のクラウドベースのGPUソリューションを凌駕する、コスト効率に優れ、コンパクトで低消費電力のAIワークステーションを求める当社の顧客にとって不可欠な製品です。

AIを駆使した究極のデータ処理ソリューションのために力を結集する

データベースが複雑化し、SQLの専門知識が不足しているため、企業はデータから重要な洞察を引き出すのに大幅な遅れに直面している。しかし、オンラインAIモデルは、専有情報の保護がないため使用できない。

この画期的なソリューションは、様々な業界の企業が抱えるこれらの問題を解決するために、RAG(Retrieval-Augmented Generation)対応のLLMコンピューティングプラットフォームであるVecow ECX-3100 RAG Edge AI Inference Workstationを活用しています。これは、ShareGuru SLM Platformを搭載したGSHのShareGuru QA 2.0ソリューションを、1枚のNeuchips LLMカードViperシリーズGen AIカードを使って実行するものです。

このソリューションを組み合わせることで、SQLクエリの生成に人間の言葉を使用できるようになり、SQLの専門知識を必要とするコストを削減しながら、よりアクセスしやすく、効率的なクエリを生成できるようになる。加えて、次のようなメリットもある:

  • 最大限のデータプライバシーとセキュリティ: Neuchipsのオフライン・カードは、ShareGuruソリューションとプラットフォームをローカルで実行します。
  • 精度が高い:AIパワーによるクエリ検証
  • 高い電力効率:NeuchipsのViperシリーズ、120億パラメータ・モデルで45Wの電力効率を実現

NeuchipsAIアクセラレーターカード「Viper」シリーズ

COMPUTEX 2024で発表されたViperシリーズは、ジェネレーティブAIに必要なリソースの90%以上をCPUからオフロードし、LLMの潜在能力を最大限に引き出します。を提供することで、市場での差別化を図っている:

  • 32GBの追加メモリー容量
  • BF16構造化言語モデルのネイティブサポート
  • ニューチップスのAIアクセラレーター・チップ「Raptor Gen」、CES 2024で発表

2026年に向けて、Neuchips社はさらなる性能向上のため、低消費電力マルチモダリティASICに注力する計画です。

Neuchipsについて

NeuchipsはAI ASICソリューションの最前線にあり、DLRMとLLMのための専用ハードウェア開発のパイオニアです。献身的な専門家チーム、イノベーションへのコミットメント、業界組織における強力なプレゼンスにより、当社はAIハードウェアの未来を形成し続け、効率性とパフォーマンスの新時代を切り開く態勢を整えています。

詳しくはhttp://www.neuchips.ai/をご覧ください