AIソリューション・ハブ

ビジネス向けの生成AIソリューションにより、生産性の新時代が幕を開けようとしています。フルスタックに組み込まれたAIを必要なときに活用できます。

コンピュータビジョン

抽出と要約

生成

推論

モデル開発

自然言語処理(NLP)

検索拡張生成

感情分析

音声認識

推論

モデル開発

抽出と要約

コンテキスト依存の結果(RAGを使用)

自然言語処理

  • AIと自然言語によるSQLクエリの生成

    Oracle Autonomous Database Select AIを使用して自然言語をSQLに変換することで、最先端のAIテクノロジーを統合してシームレスなデータベース照会を行う方法を学びます。

  • APEXでの自然言語によるSQLの生成

    Oracle APEX AI Assistantを使用して、自然言語プロンプトでSQL問合せを作成します。開発の簡素化、問合せのさらなる微調整、コーディングの学習を行います。

コンピュータ・ビジョン

  • AIで請求処理を自動化

    OCI Document Understandingを使用して請求書の抽出を自動化する方法をご紹介します。AIを使用して、ERPシステムのドキュメント処理を簡素化します。

  • AIで破損したパッケージを特定

    OCI Vision、Oracle Digital Assistant、Oracle Analytics CloudなどのAIサービスを使用して破損したパッケージを自動的に識別し、効率的なロジスティクス管理を実現します。

  • ドローンによる欠陥検出の自動化

    OCI VisionのAIを使用して建築を効率化し、ドローンを使用して早期の異常検出を実現します。自動化された品質管理により、時間とコストを削減します。

  • AIによる乳がんおよび肺がん研究

    OCI VisionとOracle APEXが、高度なAIと機械学習モデルを通じて乳がんと肺がんの研究にどのように役立つかをご覧ください。

  • AIによる
    電子メール請求書処理

    OCI Document UnderstandingとOracle Integration Cloudを使用して電子メール請求書処理を自動化し、スタッフが他の重要なタスクに就けるようにする方法をご紹介します。

  • OCI Visionによるオブジェクト検出

    製造業、小売業、その他の業界でオブジェクト検出に活用できるOCI Visionの詳細をご確認ください。高度なAIテクノロジーで品質管理と分析を向上させます。

音声認識

センチメント分析

一般的なシナリオ

OCI生成AIによる構築

サンプル・ソリューションの動画を見る(1:36)

マネージド・サービスにおけるLLMのパワーの活用

ペースの速いソフトウェア開発の世界では、常に十分な情報に基づき行動することが重要です。複雑なWebページを、一口サイズで消費しやすく、共有しやすいコンテンツに迅速に変換できるよう支援するAIアシスタントの存在をご想像ください。これは、Oracle Cloud Infrastructure(OCI)の生成AIが支援できる数多くのことの1つです。

OCIの生成 AIを使ってこのようなAIアシスタントを構築する例を以下に示します。

AI搭載のGitHub トレンド・プロジェクト・サマライザーは、GitHubのトレンド上位25プロジェクトを自動的に取得し、要約するパーソナライズされたコンテンツ生成エンジンです。OCI生成AIは、各プロジェクトのREADMEファイルを抽出、読み取り、他の人と共有できる簡潔でエンゲージメントの高い、有益な要約にまとめられるよう支援します。

GitHubの詳細なステップとサンプル・コードを使用して、ぜひお試しください。

モデルの選択

summarize_llm.pymodel_id変数を変更するだけで、OCI生成AIを介して提供される複数のLLMを簡単に切り替えることができます。

  • cohere.command-r-16k: テキスト生成、要約、翻訳などの一般的な言語タスクに対応する汎用性の高いモデルで、コンテキスト・サイズは16Kトークンです。パフォーマンスとコスト効果のバランスが良い対話型AIの構築に最適です。
  • cohere.command-r-plus:より高度な理解と深い言語機能を備えた強化バージョンです。微妙な対応と高い処理能力が必要とされる複雑なタスクに最適です。
  • meta.llama-3.3-70b-instruct: トークン・コンテキスト長が128Kの多言語対応の70Bパラメータ・モデルです。
  • meta.llama-3.1-405b-instruct:推論、合成データ生成、ツール使用において卓越した機能を持つ、一般に提供されている最大のLLM (405Bパラメータ)です。最大限のパフォーマンスを必要とするエンタープライズ・アプリケーションに最適です。

上記は利用可能なモデルの一部です。オラクルは、常に新しいモデルを提供しています。

以下は、OCI生成AIを呼び出すためのコード・スニペットです。

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

RAGによるOCI生成AIエージェントの使用

サンプル・ソリューションの動画を見る (1:44)

ナレッジ・ベースへのアクセスの向上

検索拡張生成(RAG)はAIの最も重要なユースケースの1つです。RAGを使えば、LLMの再トレーニングをすることなく、LLMのナレッジを強化することができます。これは、LLMが新しい情報をデータベースなどから抽出し、エンドユーザーに迅速に提示するための方法です。

これによりLLMは、トレーニングの時期や推論の実行時期に関係なく、最新のナレッジを取得できます。その結果、更新されたデータにより、ほとんど手間をかけずにLLMをよりインテリジェントにすることができます。

Oracle Cloud Infrastructure(OCI)の生成AIエージェントにドキュメントをアップロードした後、サービスはデータを処理し、チャットボットを通じてそのデータの利用方法を提供します。

GitHubの詳細なステップとサンプル・コードを使用して、ぜひお試しください。

OCIでRAGエージェントを使用するためのコード・スニペットを次に示します。

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

Oracle HeatWave GenAIによる構築

サンプル・ソリューションの動画を見る(3:54)

統合された生成AIでアプリケーション開発をスピードアップ

このシナリオが示すように、生成AIはセンチメントの要約を支援することが特に優れている場合があります。eコマースサイトには数百の在庫管理単位(SKU)があり、それぞれに数十ものレビューが存在する場合があります。製品レビューの迅速な要約を支援するために、データベース内の大規模言語モデルと自動化されたデータベース内のベクトルストアを使用して、開発者はHeatWave GenAIの統合機能を利用することができます。

HeatWave GenAIはオンデマンドでセンチメントの翻訳と分析を支援することもできます。すべての操作はHeatWave生成AIで自動化でき、新しいレビューが追加されても要約を最新の状態に保つことができます。

データと処理をHeatWave内に保持することで、開発者は生成AIのニーズに応じてソリューションをスケールさせることができ、AIをデータベースのクエリのようにシンプルにすることができます。

GitHubの詳細なステップとサンプル・コードを使用して、ぜひお試しください。

ポジティブなレビューを要約する方法を示すコード・スニペットを次に示します。

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

OCI上のオープンソース・モデルによる構築

サンプル・ソリューションの動画を見る(1:30)

統合プラットフォームでオープン・ソースの生成AIモデルを活用

Hugging Faceが作成したようなオープンソースLLMは、開発者が比較的迅速に生成AIソリューションを試すことができる強力なツールです。Kubernetes は、Oracle Cloud Infrastructure(OCI)と組み合わせることで、生成AIソリューションの拡張を実現すると同時に、柔軟性、移植性、耐障害性を提供します。

このデモでは、エンタープライズ向けの大規模な導入と運用を簡素化するマネージドKubernetesサービスであるOCI Kubernetes Engine上に、ファインチューニングされたLLM推論コンテナをいかに容易に導入できるかをご覧いただけます。このサービスにより、開発者はサードパーティの推論APIに依存することなく、カスタム・モデルおよびデータセットを独自のテナンシ内に保持できます。

LLMを公開する推論フレームワークとして、テキスト生成推論を使用します。

GitHubの詳細なステップとサンプル・コードを使用して、ぜひお試しください。

オープン・ソースLLMの導入方法を示すコード・スニペットを次に示します。

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

Oracle Code Assistによる構築

サンプル・ソリューションの動画を見る (3:40)

開発者の生産性を向上させ、コードの一貫性を強化

Oracle Code Assistは、開発者の作業速度を高め、コードの一貫性を向上できるよう支援するために設計されたAIコード・コンパニオンです。Oracle Code Assistは、Oracle Cloud Infrastructure(OCI)上の大規模言語モデル(LLM)を搭載し、OCI上でJava、SQL、アプリケーション開発用にファインチューニングおよび最適化されているため、開発者にコンテキストに特化した提案を提供します。組織のベスト・プラクティスとコードベースに合わせてカスタマイズできます。

現在、JetBrains IntelliJ IDEAおよびMicrosoft Visual Studio Codeのベータ版として利用可能なこのプラグインは、ドキュメント作成、レガシーコードの理解、コード補完を支援できます。

ベータ・プログラムへの参加と開始方法については、GitHubリポジトリをご覧ください。

OCI AI Blueprints

Oracle Cloud Infrastructure(OCI)AI Blueprintsを使用して、生成AIワークロードを数分で導入、拡張および監視すると同時に、ハードウェアの推奨事項とソフトウェア・コンポーネントを取得し、モニタリングをすぐに利用できます。

    • vLLMを使用してLLMを効果的に導入および拡張し、超高速の推論とシームレスな統合を手間をかけずに実現できます。

    • カスタム・モデルまたはHugging Face上のさまざまなオープン・ソース・モデルから選択できます。

    • GPUノードを自動的にプロビジョニングし、モデルをOCI Object Storageに格納します。

    • すぐに利用できるAPIエンドポイントを取得してモデル推論をすぐに実行できます。

    • ミッションクリティカルなアプリケーション向けに、推論レイテンシに基づく自動スケーリングが可能です。

    • 深い技術的な専門知識を必要とせずに、推論ワークロードの統合および拡張が簡単に行えます。

    • PrometheusやGrafanaなどの組込み可観測性ツールを使用して、パフォーマンスを監視できます。

    • データドリブンのインサイトを使用して、パフォーマンスをベンチマークし、AIトレーニングを最適化することで、よりスマートで難易度の低いファインチューニングを実現します。

    • MLCommonsの方法を使用して、ファインチューニングのパフォーマンスをベンチマークします。

    • 標準化されたデータ・セットを使用して、定量化されたLlama 2 70Bモデルをファインチューニングします。

    • トレーニング時間、リソース使用率、パフォーマンスメトリクスを追跡します。

    • MLflowで結果を自動的に記録し、Grafanaでインサイトを可視化します。

    • インフラストラクチャに関する意思決定をデータドリブンで行い、最適なファインチューニング・ジョブを実現します。

    • LoRA(Low-Rank Adaptation)を活用することでLLMのファインチューニングが大幅に向上し、高速化、効率化が実現し、導入の準備が整います。

    • LoRAを利用することで、コンピューティングのオーバーヘッドを最小限に抑えながらLLMのファインチューニングが効率的に行えます。

    • カスタムのデータ・セットまたはHugging Faceで公開されているデータ・セットをトレーニングに活用できます。

    • ファインチューニングのプロセス全体で、MLflowに記録された詳細なトレーニング・メトリックを追跡および分析できます。

    • ファインチューニングされたモデルとトレーニング結果をオブジェクト・ストレージ・バケットに格納して、シームレスな導入を実現できます。

    • リソースを大量に使用せずに迅速で効果的なモデル適応を実現する設計により、パフォーマンスが最適化されます。

    • 小規模なデータ・セットから大規模モデルのファインチューニングに至るまで、ニーズに応じてソリューションを拡張できます。