Hub de Soluções de IA

Entre em uma nova era de produtividade com soluções de IA generativas para sua empresa. Aproveite a IA, incorporada conforme necessário, em toda a pilha.

Visão computacional

Extração e consolidação

Geração

Inferência

Desenvolvimento de Modelos

Processamento de linguagem natural

Geração aumentada de recuperação

Análise de sentimentos

Reconhecimento de fala

Inferência

Desenvolvimento de modelo

Extração e consolidação

Resultados contextuais (usando RAG)

Processamento de linguagem natural

Visão computadorizada

Reconhecimento de fala

Análise de sentimento

Cenários típicos

Crie com a OCI Generative AI

Assista ao vídeo da solução de amostra (1:36)

Aproveite o poder dos LLMs em um serviço gerenciado

No mundo acelerado do desenvolvimento de software, manter-se informado é fundamental. Imagine ter um assistente de IA que possa ajudar a transformar rapidamente uma página da Web complexa em um conteúdo que seja breve, facilmente assimilável e compartilhável. Essa é uma das muitas coisas que a IA generativa da Oracle Cloud Infrastructure (OCI) pode ajudar você a fazer.

Veja abaixo um exemplo de como você pode criar um assistente de IA com a OCI Generative AI.

O gerenciador de projetos de tendências GitHub com tecnologia de IA é um mecanismo de geração de conteúdo pessoal que recupera e resume automaticamente os 25 principais projetos de tendências GitHub. A OCI Generative AI ajuda a extrair, ler e compilar o arquivo README de cada projeto em um resumo cativante e informativo que pode ser compartilhado com outras pessoas.

Experimente, com etapas detalhadas e código de amostra no GitHub.

Escolha de modelos

É possível alternar facilmente entre vários LLMs oferecidos pela OCI Generative AI ao modificar a variável model_id em summarize_llm.py.

  • cohere.command-r-16k: um modelo versátil para tarefas gerais de linguagem, como geração de texto, resumo e tradução, com um tamanho de contexto de 16 mil tokens. Ideal para criar IA conversacional com um bom equilíbrio entre desempenho e custo-benefício.
  • cohere.command-r-plus: uma versão aprimorada com compreensão mais sofisticada e recursos de linguagem mais profundos. Melhor para tarefas complexas que exigem respostas diferenciadas e maior capacidade de processamento.
  • meta.llama-3.3-70b-instruct: um modelo de parâmetros 70B com comprimento de contexto de 128 mil tokens e suporte multilíngue.
  • meta.llama-3.1-405b-instruct: o maior LLM disponível publicamente (405B parâmetros) com recursos excepcionais de raciocínio, geração de dados sintéticos e uso de ferramentas. Melhor para aplicações empresariais que exigem desempenho máximo.

A lista acima é um subconjunto dos modelos disponíveis. Estamos sempre disponibilizando novos modelos.

O trecho de código abaixo mostra como o OCI Generative AI é chamado:

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

Use os OCI Generative AI Agents com RAG

Assista ao vídeo da solução de amostra (1:44)

Melhore o acesso às bases de conhecimento

A geração aumentada de recuperação (RAG) é um dos casos de uso mais importantes para a IA. A RAG permite aumentar o conhecimento de um LLM sem treiná-lo novamente. É uma maneira de o LLM extrair novas informações, seja de um banco de dados ou de qualquer outro lugar, e apresentá-las rapidamente ao usuário final.

Isso permite que o LLM adquira conhecimento atualizado, independentemente de quando o LLM foi treinado e quando a inferência foi executada. Como resultado, os dados atualizados podem tornar seu LLM mais inteligente com pouco ou nenhum esforço.

Depois de fazer o upload de documentos para os Oracle Cloud Infrastructure (OCI) GenAI Agents, o serviço processará os dados e fornecerá uma maneira de usá-los por meio de um chatbot.

Experimente, com etapas detalhadas e código de amostra no GitHub.

O trecho de código abaixo mostra como usar o agente RAG na OCI:

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

Crie com o Oracle HeatWave GenAI

Assista ao vídeo da solução de amostra (3:54)

Acelere o AppDev com a IA generativa integrada

A IA generativa pode ser particularmente útil para gerar um resumo do sentimento, como mostra este cenário. Um site de comércio eletrônico pode ter centenas de unidades de manutenção de estoque, ou SKUs, com dezenas de comentários para cada um. Para ajudar a resumir rapidamente as avaliações de produtos, os desenvolvedores podem acessar os recursos integrados da HeatWave GenAI, usando modelos de linguagem grandes no banco de dados e um armazenamento de vetores automatizado no banco de dados.

O HeatWave GenAI também pode ajudar a traduzir e analisar sentimentos sob demanda. Todas as operações podem ser automatizadas com o HeatWave GenAI, mantendo os resumos atualizados à medida que novas revisões são adicionadas.

Ao manter os dados e o processamento no HeatWave, os desenvolvedores podem dimensionar as soluções de acordo com suas necessidades de GenAI, tornando a IA tão simples quanto uma consulta ao banco de dados.

Experimente, com etapas detalhadas e código de amostra no GitHub.

O trecho de código abaixo mostra como resumir as avaliações positivas:

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

Crie com modelos de código aberto na OCI

Assista ao vídeo da solução de amostra (1:30)

Use os modelos GenAI de código aberto em uma plataforma unificada

Os LLMs de código aberto, como os criados pelo Hugging Face, são ferramentas avançadas que permitem aos desenvolvedores experimentar soluções GenAI de forma relativamente rápida. O Kubernetes, combinado com a Oracle Cloud Infrastructure (OCI), permite que as soluções deGenAI sejam dimensionadas, além de fornecer flexibilidade, portabilidade e resiliência.

Nesta demonstração, você verá como é fácil implementar contêineres de inferência LLM com ajuste fino no OCI Kubernetes Engine, um serviço gerenciado do Kubernetes que simplifica as implementações e operações em escala para empresas. O serviço permite que os desenvolvedores mantenham o modelo personalizado e os conjuntos de dados na sua tenancy, sem depender de uma API de inferência de terceiros.

Usaremos a inferência de geração de texto como estrutura de inferência para expor os LLMs.

Experimente, com etapas detalhadas e código de amostra no GitHub.

O trecho de código abaixo mostra como implementar um LLM de código aberto:

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

Crie com o Oracle Code Assist

Assista ao vídeo da solução de amostra (3:40)

Aumente a produtividade do desenvolvedor e melhore a consistência do código

O Oracle Code Assist é um assistente de código de IA, projetado para aumentar a velocidade de desenvolvimento e aprimorar a consistência do código. Desenvolvido por grandes modelos de linguagem (LLMs) na Oracle Cloud Infrastructure (OCI) e ajustado e otimizado para Java, SQL e desenvolvimento de aplicações na OCI, o Oracle Code Assist oferece aos desenvolvedores sugestões específicas relacionadas ao contexto. Você pode adaptá-lo às melhores práticas e bases de código da sua organização.

Atualmente disponível na versão beta para JetBrains IntelliJ IDEA e Microsoft Visual Studio Code, o plugin pode auxiliar na documentação, compreensão de código herdado e formatação do código.

Para saber como participar do programa beta e começar, visite nosso repositório GitHub.

Blueprints de IA da OCI

Implemente, escalone e monitore cargas de trabalho de GenAI em minutos com os Blueprints de IA da Oracle Cloud Infrastructure (OCI), completos com recomendações de hardware, componentes de software e monitoramento pronto para uso.

    • Implemente e escalone LLMs de forma eficaz com inferência vLLM, integração perfeita e nenhuma complicação.

    • Escolha entre modelos personalizados ou uma variedade de modelos de código aberto na Hugging Face.

    • Provisione automaticamente nós de GPU e armazene modelos no OCI Object Storage.

    • Obtenha um ponto de extremidade de API pronto para uso para inferência instantânea de modelos.

    • Habilite o escalonamento automático com base na latência de inferência para aplicações de missão crítica.

    • Integre e escalone facilmente cargas de trabalho de inferência sem conhecimento técnico profundo.

    • Monitore o desempenho com ferramentas de observabilidade integradas, como Prometheus e Grafana.

    • Ajuste com mais inteligência, não dificuldade: compare o desempenho e otimize o treinamento em IA com insights baseados em dados.

    • Compare o desempenho de ajuste usando a metodologia MLCommons.

    • Ajuste um modelo Llama 2 70B quantizado com um conjunto de dados padronizado.

    • Acompanhe o tempo de treinamento, a utilização de recursos e as métricas de desempenho.

    • Registre automaticamente os resultados no MLflow e visualize insights no Grafana.

    • Tome decisões de infraestrutura baseadas em dados para trabalhos otimizados de ajuste.

    • Potencialize o ajuste do LLM com a adaptação de baixa classificação (LoRA): mais rápido, mais eficiente e pronto para implementação.

    • Utilize a LoRA para um ajuste eficiente de LLMs com sobrecarga computacional mínima.

    • Aproveite os conjuntos de dados personalizados ou conjuntos de dados disponíveis publicamente na Hugging Face para treinamento.

    • Acompanhe e analise métricas detalhadas de treinamento registradas no MLflow durante todo o processo de ajuste.

    • Armazene o modelo ajustado e os resultados de treinamento em um bucket de armazenamento de objetos para uma implementação perfeita.

    • Otimize o desempenho com um design que ajude a garantir uma adaptação rápida e eficaz do modelo sem o uso intenso de recursos.

    • Escalone a solução conforme necessário, de pequenos conjuntos de dados a ajuste de modelos em larga escala.