AI Solutions Hub

귀사의 비즈니스를 돕기 위해 개발된 생성형 AI 솔루션이 제공하는 차원이 다른 생산성을 직접 경험해 보세요. 필요에 따라 내장된 AI를 전체 스택에 활용할 수 있습니다.

컴퓨터 비전

  • AI 기반 사진 분석 앱 구축하기

    생성형 AI, Oracle Cloud Infrastructure 및 Streamlit를 사용하여 사진 분석 앱을 제작하는 방법을 알아보세요.

  • 이미지 인텔리전스를 위한 AI 솔루션

    OCI Vision으로 이미지 인텔리전스를 살펴보세요. 앱에서 사전 훈련된 모델이나 커스텀 모델을 사용해서 객체를 감지하고 텍스트를 추출할 수 있습니다.

  • AI로 포장 손상 식별

    OCI Vision, Oracle Digital Assistant, Oracle Analytics Cloud 등 AI 서비스를 사용하여 포장 손상을 자동으로 식별하여 효율적인 물류...

  • 빠른 AI 앱 배포

    Oracle Cloud 및 Kubernetes를 사용하여 AI 애플리케이션 배포 속도를 높이고 클라우드 네이티브 전략을 통해 확장성과 안정성을 향상할 수 있습니다.

  • AI를 사용한 문서 평가

    사양을 분석하고, RFP 규정 준수를 확인하고, 이메일을 스캔하기 위해 OCI AI, Oracle Integration Cloud, 모든 산업에 적응할 수 있는 도구인...

  • 데이터 마이그레이션 및 강력한 지식 허브 구축

    대화형 데모에서 OCI Generative AI, OpenSearch 및 RAG를 사용하여 문서를 실용적인 인사이트로 변환하는 방법을 알아보세요.

  • AI로 식단 추천 엔진 구축하기

    OCI Vision과 생성형 AI를 사용해서 효율적이면서도 간단하게 식단을 짤 수 있는 식단 권장 엔진을 만드는 방법을 알아보세요.

  • AI를 활용한 유방암 연구

    OCI Vision과 Oracle APEX가 고급 AI와 머신러닝 모델을 통해 유방암 및 폐암 연구에 어떤 방식으로 도움이 될 수 있는지 확인해 보세요.

  • 드론으로 결함 감지 자동화

    드론을 사용해 조기에 이상을 감지할 수 있는 OCI Vision의 AI로 건설을 간소화할 수 있습니다. 품질 관리 자동화를 통해 시간과 비용을 절약할 수 있습니다.

  • OCI Vision으로 객체 감지

    제조, 소매 및 기타 산업에서의 객체 감지를 위한 OCI Vision에 대해 알아보세요. 고급 AI 기술로 품질 관리 및 분석을 개선해 보세요.

추출 및 요약

발전

추론

모델 개발

자연어 처리

검색 증강 생성

감성 분석

음성 인식

추론

모델 개발

추출 및 요약

맥락 기반 결과(RAG 사용)

자연어 처리

  • AI 및 자연어로 SQL 쿼리 생성

    Oracle Autonomous Database Select AI를 사용하여 자연어를 SQL로 변환하는 방법을 알아보세요. 데이터베이스를 원활하게 쿼리할 수 있도록 최첨단 AI 기술을 통합합니다.

  • APEX에서 자연어로 SQL 생성

    Oracle APEX AI Assistant를 사용하면 자연어 프롬프트로 SQL 쿼리를 생성할 수 있습니다. 개발을 간소화하고, 쿼리를 구체적으로 정의하며, 코딩을 배워보세요.

컴퓨터 비전

  • AI를 통한 송장 처리 자동화

    OCI Document Understanding을 사용하여 송장 추출을 자동화하는 방법을 알아보세요. AI를 사용하여 ERP 시스템에서 문서 처리를 간소화할 수 있습니다.

  • AI를 사용하여 손상된 패키지 식별

    효율적인 물류 관리를 위해 OCI Vision, Oracle Digital Assistant, Oracle Analytics Cloud 등 AI 서비스를 사용하여 손상된 패키지를 자동으로 식별합니다.

  • 드론으로 결함 감지 자동화

    드론을 사용해 조기에 이상을 감지할 수 있는 OCI Vision의 AI로 건설을 간소화할 수 있습니다. 품질 관리 자동화를 통해 시간과 비용을 절약할 수 있습니다.

  • AI를 사용한 유방암 연구

    OCI Vision과 Oracle APEX가 고급 AI 및 머신러닝 모델을 통해 유방암 및 폐암 연구를 지원하는 방법을 확인해 보세요.

  • AI를 이용한
    이메일 송장 처리

    OCI Document Understanding과 Oracle Integration Cloud로 이메일 송장 처리를 자동화하여 직원들이 주요 작업에 집중할 수 있도록 해주는 방법을 알아보세요.

  • OCI Vision으로 객체 감지

    제조, 소매 및 기타 산업에서의 객체 감지를 위한 OCI Vision에 대해 알아보세요. 고급 AI 기술로 품질 관리 및 분석을 개선해 보세요.

음성 인식

감정 분석

일반적인 시나리오

OCI Generative AI로 구축

샘플 솔루션 비디오 시청하기(1:36)

관리형 서비스에서 LLM의 파워 활용하기

빠른 속도로 소프트웨어가 개발되는 세상에서 정보 습득 능력은 핵심입니다. 복잡한 웹페이지를 바이트 크기의, 손쉽게 사용 및 공유 가능한 콘텐츠로 신속하게 변환해 주는 AI 어시스턴트를 상상해 보세요. 이건 Oracle Cloud Infrastructur(OCI) Generative AI가 할 수 있는 여러 가지 일 중 하나에 불과합니다.

다음은 OCI Generative AI 탑재 AI 어시스턴트 구축 방법의 예입니다.

AI 기반 GitHub 인기 프로젝트 요약기는 25가지 인기 GitHub 프로젝트를 자동으로 검색 및 요약해 주는 개인화된 콘텐츠 생성 엔진입니다. OCI Generative AI는 각 프로젝트의 README 파일을 추출 및 읽어온 뒤 이를 공유할 수 있는 간결하고 매력적인, 풍부한 정보가 담긴 요약으로 컴파일링해 줍니다.

GitHub에서 제공되는 세부 단계 및 샘플을 활용해 직접 체험해 보세요.

모델 선택

OCI Generative AI를 통해 제공된 여러 LLM을 model_id 변수를 summarize_llm.py에서 수정하는 방식으로 간편하게 전환할 수 있습니다.

  • cohere.command-r-16k: 컨텍스트 크기가 16k 토큰인, 텍스트 생성, 요약, 번역 등 일반적인 언어 작업을 위한 다재다능한 모델입니다. 균형 잡힌 성능 및 비용 효율성 덕분에 대화형 AI 구축에 적합합니다.
  • cohere.command-r-plus: 보다 정교한 이해도와 심층적인 언어 기능을 갖춘 향상된 버전입니다. 미묘한 늬앙스가 담긴 응답과 고도의 처리 능력이 필요한 복잡한 업무에 적합합니다.
  • meta.llama-3.3-70b-instruct: 128K의 토큰 컨텍스트 길이와 다국어 지원을 제공하는 70B 매개변수 모델입니다.
  • meta.llama-3.1-405b-instruct: 상용화된 가장 대규모의 LLM(405B 매개변수)으로, 추론, 합성 데이터 생성, 도구 사용 기능을 제공합니다. 최대 성능을 필요로 하는 엔터프라이즈 애플리케이션에 적합합니다.

상기 내용에는 가용한 모델의 일부만 소개되었습니다. 신규 모델들이 계속해서 출시되고 있습니다.

다음은 OCI Generative AI 호출을 위한 코드 스니펫입니다:

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

RAG를 갖춘 OCI Generative AI Agents 사용

샘플 솔루션 비디오 시청하기(1:44)

지식 기반에 대한 향상된 액세스 제공

검색 증강 생성(RAG)은 가장 중요한 AI 사용 사례 중 하나입니다. RAG를 사용하면 재훈련 없이도 LLM의 지식을 증강할 수 있습니다. LLM이 데이터베이스 또는 다른 곳에서 새로운 정보를 추출해 이를 최종 사용자에게 빠르게 제시할 수 있는 한 가지 방법입니다.

이 방식을 사용하면 LLM은 과거 훈련 시기 및 추론 실행 시점과 관계없이 최신 지식을 습득할 수 있습니다. 따라서 별다른 노력 없이도 최신 데이터를 사용하면 LLM을 더욱 똑똑하게 만들 수 있습니다.

Oracle Cloud Infrastructure(OCI) GenAI Agents에 문서를 업로드하면 서비스는 데이터를 처리하고, 챗봇을 통해 해당 데이터를 사용할 수 있는 방법을 제공합니다.

GitHub에서 제공되는 세부 단계 및 샘플을 활용해 직접 체험해 보세요.

다음은 OCI에서의 RAG 에이전트 사용을 위한 코드 스니펫입니다:

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

Oracle HeatWave GenAI를 활용한 구축

샘플 솔루션 비디오 시청하기(3:54)

통합 GenAI를 활용한 앱 개발 가속화

본 시나리오를 통해 볼 수 있듯 생성형 AI는 특히 사용자 만족도 요약에 유용하게 쓰일 수 있습니다. 하나의 전자상거래 사이트에는 각각 수십 개의 리뷰가 달린 수백 개의 재고 관리 유닛(SKU)이 포함되어 있습니다. 제품 리뷰를 신속히 요약할 수 있도록 개발자는 인 데이터베이스 대규모 언어 모델 및 자동 인 데이터베이스 벡터 저장소를 사용하는 등 HeatWave GenAI의 통합 기능을 사용할 수 있습니다.

HeatWave GenAI는 또한 요청을 기반으로 사용자 만족도를 번역 및 분석할 수 있습니다. HeatWave GenAI를 사용하면 모든 작업을 자동화할 수 있기 때문에, 새로운 리뷰가 추가되더라도 요약본이 최신 상태로 유지됩니다.

데이터 보관 및 처리를 HeatWave 내에서 수행함으로써 개발자는 GenAI 니즈에 따라 솔루션을 확장할 수 있고, AI를 데이터베이스 쿼리 만큼 간소화할 수 있습니다.

GitHub에서 제공되는 세부 단계 및 샘플을 활용해 직접 체험해 보세요.

다음은 긍정적인 리뷰의 요약 방식을 보여주는 코드 스니펫입니다:

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

OCI에서 오픈 소스 모델을 사용한 구축

샘플 솔루션 비디오 시청하기(1:30)

통합 플랫폼에서의 오픈 소스 GenAI 모델 활용

Hugging Face에서 생성된 것들과 같은 오픈 소스 LLM들은 개발자가 GenAI 솔루션을 상대적으로 빠르게 체험해 볼 수 있게 해 주는 강력한 도구입니다. Oracle Cloud Infrastructure(OCI)와 결합된 Kubernetes는 GenAI 솔루션의 확장을 지원하는 동시에, 유연성과 이식성, 복원성을 제공합니다.

이 데모를 통해 OCI Kubernetes Engine에서 미세 조율된 LLM 추론 컨테이너를 손쉽게 배포하는 방법을 확인할 수 있습니다. OCI Kubernetes Engine은 관리형 Kubernetes 서비스로 기업들을 위한 대규모 배포 및 운영 간소화를 지원하는 서비스입니다. 이 서비스는 개발자가 제3자 추론 API에 의존하지 않고도 자체 테넌시에서 커스텀 모델 및 데이터 세트를 재훈련할 수 있게 해 줍니다.

LLM 배포를 위한 추론 프레임워크로 Text Generation Inference를 사용해 보겠습니다.

GitHub에서 제공되는 세부 단계 및 샘플을 활용해 직접 체험해 보세요.

다음은 오픈 소스 LLM의 배포 방법을 보여주는 코드 스니펫입니다:

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

Oracle Code Assist를 사용한 구축

샘플 솔루션 비디오 시청하기(3:40)

개발자 생산성 및 코드 일관성 증대

Oracle Code Assist는 개발 속도 가속화와 코드 일관성 향상을 지원하기 위해 설계된 AI 코딩 동반자입니다. Oracle Cloud Infrastructure(OCI)의 대규모 언어 모델(LLM)을 사용하고 Java, SQL 및 OCI에서의 애플리케이션 개발에 미세 조정 및 최적화된 Oracle Code Assist는 개발자들에게 코드별 제안을 제공합니다. 이를 조직의 모범 사례 및 코드 기반에 맞춤 설정할 수 있습니다.

현재 JetBrains IntelliJ IDEA 및 Microsoft Visual Studio Code에서 베타 버전으로 제공 중인 플러그인은 문서화, 레거시 코드 이해 및 코드 완성을 지원할 수 있습니다.

베타 프로그램 신청 및 시작 방법은 GitHub 저장소에서 확인할 수 있습니다.

OCI AI Blueprints

Oracle Cloud Infrastructure(OCI) AI Blueprints를 통해 GenAI 워크로드를 몇 분 만에 배포, 확장 및 모니터링할 수 있습니다. 하드웨어 권장 사항, 소프트웨어 구성요소, 즉시 사용 가능한 모니터링 기능도 함께 제공됩니다.

    • vLLM을 사용하면 LLM을 효과적으로 배포하고 확장할 수 있습니다. 빛의 속도로 추론하고 원활히 통합할 수 있으며 번거롭지 않습니다.

    • 커스텀 모델 또는 Hugging Face의 다양한 오픈 소스 모델 중에서 선택할 수 있습니다.

    • vLLM을 사용한 LLM 추론 배포하기
    • GPU 노드를 자동으로 프로비저닝하고 모델을 OCI Object Storage에 저장할 수 있습니다.

    • 즉각적인 모델 추론을 위한 즉시 사용 가능한 API 엔드포인트를 확보할 수 있습니다.

    • 미션 크리티컬 애플리케이션의 추론 지연시간을 기반으로 자동 확장할 수 있습니다.

    • 심층적인 기술 전문 지식이 없어도 추론 워크로드를 쉽게 통합하고 확장할 수 있습니다.

    • Prometheus이나 Grafana 등의 내장된 가시화 도구로 성능을 모니터링할 수 있습니다.

    • 더 스마트하게 미세 조정할 수 있지만 더 어렵진 않습니다. 성능을 벤치마킹하고, 데이터에서 얻은 인사이트로 AI 훈련을 최적화해 보세요.

    • MLCommons 방법론을 사용하여 성능 미세 조정을 벤치마킹할 수 있습니다.

    • 미세 조정 벤치마킹 배포하기
    • 표준화된 데이터 세트를 사용하여 양자화된 Llama 2 70B 모델을 미세 조정할 수 있습니다.

    • 훈련 시간, 리소스 활용도 및 성과 측정지표를 추적할 수 있습니다.

    • 결과가 MLflow에 자동 기록되고, Grafana에서 인사이트를 시각적으로 볼 수 있습니다.

    • 데이터를 기반으로 인프라에 대한 의사 결정을 내림으로써 미세 조정 작업을 최적화할 수 있습니다.

    • 저순위 조정(LoRA)으로 LLM 미세 조정을 강화하여 더 빠르고 효율적이며, 배포를 준비할 수 있습니다.

    • LoRA를 활용해 컴퓨팅 오버헤드를 최소화하면서 LLM를 효율적으로 미세 조정할 수 있습니다.

    • 미세 조정 벤치마킹 배포하기
    • 커스텀 데이터 세트나 Hugging Face에 공개 배포된 데이터 세트를 활용해 훈련할 수 있습니다.

    • 미세 조정 프로세스 전반에 걸쳐, MLflow에 기록된 세부 훈련 지표를 추적하고 분석할 수 있습니다.

    • 원활한 배포를 위해 미세 조정된 모델 및 훈련 결과를 오브젝트 스토리지 버킷에 저장할 수 있습니다.

    • 리소스를 많이 사용하지 않고도 모델을 빠르고 효과적으로 조정할 수 있도록 설계를 통해 성능을 최적화할 수 있습니다.

    • 소규모 데이터 세트에서 대규모 모델 미세 조정에 이르기까지 필요에 따라 솔루션을 확장할 수 있습니다.