Elmar Ricardo

Detalhes do autor

Nome: Elmar Ricardo
Data de registro: 9 de setembro de 2013

Biografia

Consultor de BI contando com 12 anos de experiência em consultoria e desenvolvimento em projetos de B.I. Atualmente atua como Analista de BI Sr atuando especificamente com as tecnologias SAP BO e BW . Foi responsável pela condução e desenvolvimento de diversos projetos na Petrobras relacionados a BI e levantamento de requisitos, desenvolvimento de Dashboards Corporativos bem como especificação funcional e técnica. É Pós Graduado na PUC Rio em Análise, Projeto e Gerência de Sistemas e possui certificação em ITIL - Fundation Certificate in IT Service Management. Trabalhou como consultor em clientes como Souza Cruz, Xerox do Brasil e Vale atuando em desenvolvimento de projetos de DW. Possui larga experiência nas tecnologias da SAP Business Objects atuando no mercado como consultor e desenvolvedor.

Últimos posts

  1. Demonstração do SAP Lumira — 10 de maio de 2015
  2. Dashboard 4.0 – Atualização dinâmica do status do componente check box – Parte 1 — 4 de março de 2014
  3. Data Integrator Designer – File Format — 12 de maio de 2012
  4. Data Integrator Designer – Utilização de Scripts — 22 de março de 2012
  5. Dashboard Designer – SAP BO 4.0 – (Parte 01) — 11 de fevereiro de 2012

Posts mais comentados

  1. Dashboard Designer – SAP BO 4.0 – (Parte 01) — 13 comentários
  2. BW – Uma visão conceitual (Parte 04) — 4 comentários
  3. Data Integrator (Parte 04) — 4 comentários

Listas de posts do autor

maio 10 2015

Demonstração do SAP Lumira

Introdução

O objetivo desse artigo é demonstrar ao leitor o funcionamento dessa ferramenta da SAP que vem crescendo no mercado por sua facilidade e agilidade na criação de Dashboards.  Nesse artigo vamos explicar e demonstrar todas as etapas para a criação de um Dashboard (Aquisição, Preparação, Visualização, Composição e Compartilhamento).

artigo1

 

01 –  Aquisição de Dados

Ao abrir o SAP Lumira uma tela inicial é apresentada mostrando como mensagem os passos para a criação de dashboards na ferramenta. Para o nosso exemplo vamos usar uma massa de dados de um Excel.

 

artigo2

 

 

Ao clicar em Arquivo -> Novo uma tela onde podemos escolher uma fonte de dados específica será aberta.

 

artigo3

 

 

No nosso exemplo vamos escolher uma fonte de dados Excel.

artigo4

 

Ao clicar em Criar o processo de Aquisição é concluído e agora podemos começar a elaborar o nosso Dashboard.

artigo6

 

 

02 –  Preparação dos Dados

Arrastando as dimensões e medidas e escolhendo o tipo de gráfico rapidamente temos um gráfico pronto.

 

artigo7

 

Após salvar essa visualização podemos criar outras para compor nosso dashboard.  Para salvar e criar uma nova visualização basta clicar em “salvar” indicado na parte inferior direita do painel.

artigo8

Criaremos mais 2 visualizações para o nosso Dashboard conforme indicamos na figura abaixo.

artigo9

As próximas etapas da criação do nosso dashboard será o processo de criação e compartilhamento.  Com as devidas visualizações criadas vamos compor o nosso painel e acrescentarmos mais detalhes.

No próximo artigos vamos dar continuidade na construção do nosso Dashboard e mostraremos em detalhes o processo de compartilhamento utilizado no exemplo.

Espero que tenham gostado e espero vocês na segunda e última parte do nosso artigo.

 

Abraços

 

 

mar 04 2014

Dashboard 4.0 – Atualização dinâmica do status do componente check box – Parte 1

Olá pessoal, o nosso blog tem como objetivo trazer sempre alguma novidade ou dica preciosa sobre as ferramentas da SAP com o objetivo de unir e ajudar toda a comunidade de profissionais espalhadas pelo Brasil e pelo mundo. Hoje vamos falar sobre um tópico específico de desenvolvimento em painéis Dashboards. Essa foi uma dificuldade que eu particularmente enfrentei em um dos projetos que participei e acredito que é uma dificuldade que muitos profissionais também já passaram ou passam com essa ferramenta. A grande questão do post de hoje é, será que é possível fazer um componente check box funcionar de forma dinâmica? Vamos ao entendimento dessa questão que a princípio parece ser simples, mas não é.

1 – Para verificar ou não verificar?

Um dos pedidos mais comuns quando se usa SAP BusinessObjects Dashboards ( Xcelsius ) é a capacidade de redefinir seletivamente componentes Seletor de volta ao seu estado original. Ao contrário de muitos outros seletores, a tarefa não é tão fácil de conseguir com o componente Check Box. Não podemos atualizar dinamicamente o seu estado verificado / Desmarcado, porque as mudanças do valor na célula que o componente é obrigado a não afetar o próprio componente. A falta desta funcionalidade também torna difícil apoiar a atualização dos status de várias caixas de seleção ao mesmo tempo. Este post é o primeiro de uma série em que eu vou compartilhar a minha solução para esse desafio e examinar algumas das suas aplicações práticas.

Componente Xcelsius Check Box é semelhante ao seu homólogo Excel, mas age de forma diferente. No Excel, a conexão entre um controle de caixa de seleção e sua célula vinculada funciona nos dois sentidos, como se conclui da propriedade do controle: Ligação celular. Atualizando o status caixa de seleção altera o valor na célula vinculada, e vice- versa. Assim, no Excel, podemos alterar dinamicamente um valor de célula ligada e ver a mudança imediata no estado do componente. Esse não é o caso do componente check box.

Vamos realizar um teste simples e comparar os resultados com o mesmo cenário no Excel e Xcelsius:

1. Adicionar uma caixa de seleção e um controle de botão de rotação do Formulário Excel seção Controles para uma planilha e associar os dois a célula C2.

2. Defina os valores de botão de rotação variando de 0 a 1.

 

060612_2113_Dynamicstat1

3. Quando a caixa de seleção está marcada / desmarcada a célula recebe valores verdadeiro / falso.

060612_2113_Dynamicstat2

Quando o botão de rotação é clicado para cima ou para baixo altera valores na célula vinculada a 1 ou 0 e, ao mesmo tempo o estado da caixa de seleção fica alternado também.

060612_2113_Dynamicstat3

4. Agora, vamos ver o que acontece no Dashboard.

Adicione uma Caixa de seleção, Spinner e um componente de valor único para uma tela conforme demonstrado na imagem abaixo.

060612_2113_Dynamicstat4

5. Ligue todos os componentes para a célula C2 e abra um Preview.

6. Quando a caixa está marcada ou desmarcada a célula de destino recebe valores de 1 ou 0.

060612_2113_Dynamicstat5Mas quando o spinner atualiza o valor na célula o status nas caixas não muda.

060612_2113_Dynamicstat6

Isto significa que, na versão atual do Dashboard não há nenhuma funcionalidade built-in para alternar dinamicamente o status verificado / Desmarcado do componente Caixa de Seleção.

Felizmente, há um trabalho em torno. Ao contrário de controles de formulário Excel, componentes Dashboard tem uma propriedade chamada de Visibilidade Dinâmica. Usando a sua magia em um conjunto com um componente Botão, podemos simular a funcionalidade de caixa de seleção do Excel em um Dashboard.

Vamos criar um modelo que demonstra essa técnica:

  1. Adicione duas Push Button e dois check box para uma tela. Vamos Personalizar um botão de pressão e combinar caixas de seleção e um botão em um botão personalizado. Podemos também usar os componentes de imagem em vez disso, é só temos um bom par de imagens de uma caixa de seleção marcada e desmarcada.
  2. Defina a propriedade do item de uma das caixas de seleção como verificado e o outro como desmarcada. A propriedade desse item está localizada na guia Comum da seção Comportamento. Vincular dados de origem para os botões de ação para a célula A3 e Destino para H3. A fórmula do Excel em A3 é = 1-H3 e o valor inicial no H3 é 1.
  3. A célula H3 vai definir a propriedade Visibility Status dinâmico para ambas as caixas de seleção. Defina a propriedade de chave para a caixa de seleção marcada para 1 e 0 para o desmarcado.

Neste ponto, a configuração do modelo deve ser semelhante à figura a seguir:

060612_2113_Dynamicstat7

1. Um dos botões vai ser exibido como é, e o outro será transparente. Sua propriedade Label deve estar em branco e a propriedade Fundo Botão Show desmarcada.

2. No componente check box coloque o botão transparente em cima deles.

3. Adicionar componente Tabela de planilha para ver o que acontece por trás da visualização.

Agora estamos prontos para testar.

Quando começa uma pré-visualização, podemos ver que a caixa de seleção está marcada e os valores em A3 (sombra em verde) é 0 e em H3 (sombreados em amarelo) é 1.

060612_2113_Dynamicstat8Quando um usuário clica em uma caixa de seleção, o que não está marcado, os valores em H3 e A3 se transformam em 0 e 1, respectivamente.

060612_2113_Dynamicstat9

Clicando sobre a caixa de seleção desmarcada traz o modelo para o estado inicial. E, como nos lembramos, o real clique acontece no botão de comando, e não em uma caixa de seleção. Mas é transparente para o usuário.

Esta abordagem permite que simulemos a funcionalidade caixa de seleção Excel em redefinir o status verificado / Desmarcado do componente check box. Também nos dá um modelo de trabalho que pode se estender para projetos mais complexos que fornecem regras baseadas em seleção dinâmicas de componentes logicamente agrupados em várias check boxes. Vou mostrar um exemplo na Parte 2 desta série: Selecionar todos ou selecione Nenhum.

Espero que tenham gostado dessa primeira parte do artigo e não percam as outras pois de agora em diante a coisa fica um pouco mais complicada.

 

Abraços!!!!

 

maio 12 2012

Data Integrator Designer – File Format

No artigo de hoje falaremos mais um pouco sobre o Data Integrator. Um recurso muito interessante existente nessa ferramenta é uma forma de se trabalhar com formatos de arquivos.

Introdução.

Um File Format é um conjunto de propriedades descrevendo a estrutura de um Flat File. Um template de um File Format pode ser usado por muitos arquivos de dados. Assim o Data Integrator pode usar dados em forma de arquivo tanto como origem ou destino.

Para usar File Format devemos:

– criar um template com a estrutura do arquivo.

–  criar um source ou target com um determinado arquivo baseado no template.

Um File Format pode ser definido como:

–  Formato delimitado – campos separados por vírgulas, ponto e vírgula, espaço ou tabulação.

– Formato de tamanho fixo – o tamanho da coluna é especificado pelo usuário.

–  Formato SAP R/3 – tipo específico para uso com Data Flows R/3

Abaixo mostramos o ambiente do DI onde trabalhamos toda essa questão de formatação de arquivos.

Esse recurso da ferramenta é muito útil quando precisamos trabalhar com fontes de dados em formato csv ou outra qualquer no momento em que essa fonte possa servir como origem ou destino no nosso processo ETL.

Espero que tenham gostado desse artigo e em breve teremos mais novidades.

Até a próxima.

mar 22 2012

Data Integrator Designer – Utilização de Scripts

No artigo de hoje falaremos sobre um recurso muito útil para quem desenvolve processos ETL utilizando a ferramenta da SAP Data Integrator que é a utilização de scripts.

1 – Scripts

Com a linguagem de script do Data Integrator, pode-se atribuir valores a variáveis, chamar funções, e usar expressões e operadores matemáticos. Jobs e Work Flows podem usar scripts para definir passos detalhados na lógica do fluxograma.

  • Scripts são:
  • Objetos não re-usáveis adicionados a Jobs e Work Flows
  • Usados para definir valores à variáveis
  • Usados para executar funções
  • Escritos em Data Integrator Scripting Language
  • Tipicamente são:  Executados antes de Data Flows para passos de inicialização
  • Usados em conjunto com condicionais e while loops para determinar caminhos de execução
  • Usados depois de Work Flows para gravar informações de execução

As palavras reservadas que podem ser usadas junto com variáveis, funções e operadores aritméticos e lógicos em Data Integrator Scripiting Language são:

BEGIN / END

TRY/CATH

WHILE

IF / ELSE

RETURN

Exemplo:

Seus Operadores são:

Regras para utilização de Scripts

Existem algumas regras que devem ser respeitadas para que não ocorram Erros de compilação:

  • Todo o comando deve ser finalizado com um ponto e vírgula (;)
  • Strings são inicializadas e finalizadas com Quotation Marks (‘ ’)
  • Quotation Marks (‘ ’) dentro de uma string devem ser precedidos de uma contra-barra() para diferenciar do início ou fim da string.
  • Comentários são antecedidos com tralha (#)
  • Comparativo com valores NULOS devem sempre utilizar expressões  como IS NULL ou IS NOT NULL . Dentro de Data Flows deve-se usar a função NVL nos mapeamentos de colunas quando quiser tratar valores NULOS.

Espero que tenham gostado do artigo de hoje, breve publicaremos novos artigos sobre essa poderosa ferramenta de ETL.

Até breve

fev 11 2012

Dashboard Designer – SAP BO 4.0 – (Parte 01)

No artigo de hoje vamos começar uma serie de estudos sobre a nova ferramenta da SAP para painéis gerenciais, o Dashboard Designer. Vale ressaltar que essa ferramenta e uma evolução do Xcelsius. O objetivo dessas serie de artigos é demonstrar a capacidade dessa ferramenta, seus componentes, aplicações, curiosidades e integrações com outras ferramentas da SAP como o WebIntelligence, etc.

Introdução

Antes de começarmos a mostrar algumas funcionalidades dessa ferramenta vamos mostrar o novo visual do ambiente de trabalho do Dashboard Designer. Podemos observar de uma forma geral que pra essa nova versão a ferramenta apresenta um visual mais elegante.

Um detalhe importante sobre essa nova versão diz respeito aos menus NEW, RECENT e OPEN.

Conforme observado na figura abaixo no menu NEW podemos por exemplo criar um documento novo, um documento a partir
de um modelo já existente, etc. O menu RECENT nos mostrará os últimos documentos que foram abertos e trabalhados na ferramenta e por último no menu OPEN encontramos a opção para abrir documentos diretamente da plataforma SAP BO, um arquivo local, etc.

Observamos também que a barra de ferramentas continua praticamente a mesma da versão Xcelsius para o SAP BO 3.1.

1 – Visão Geral

O Dashboard Designer pode ser entendido como uma ferramenta gráfica com diversos componentes para visualização.  Essa ferramenta não
processa fórmulas ou condições; essas são pré-contruídas nas planilhas que serve como a principal fonte de dados para a mesma.

Exemplo de painel gerencial no Dashboard Designer.

Obs.: Para os nossos exemplos de utilização de componentes e criação de Painéis utilizaremos como base o modelo de planilha abaixo.

2 – Componentes

Mostraremos nessa parte do artigo os principais componentes, suas funcionalidades e aplicabilidades no desenvolvimento de Painéis Gerenciais.

Os principais componentes estão disponíveis e agrupadas conforme ilustram as figuras, e suas formas de visualização e utilização fica a critério do desenvolvedor.

Uma vantagem dessa nova versão, dentre algumas que destacaremos ao longo dos artigos, é um componente que nos permite conectar ao Universo do SAP BO. A opção onde encontramos esses componentes é a Universe Connectivity e dentro dela encontraremos os dois componentes utilizados para conectar com o universo que são Query Refresh Button e Query Prompt Selector.  A sua utilização bem como a de outros componentes demonstraremos no final dessa série de artigos.

3 – Componentes Gráficos

O Dashboard Designer disponibiliza uma série de componentes gráficos para a criação de Painéis Gerenciais, dentre eles temos opções para a criação de gráficos de pizza, gráfico de barras, gráficos de linhas, etc.

Para o nosso primeiro exemplo demonstraremos a criação de um gráfico de linhas utilizando a base já apresentada nesse artigo.

Para o exemplo abaixo a planilha que serviu de base para o nosso estudo já foi devidamente importada para a ferramenta.

Escolheremos o gráfico desejado e arrastaremos o mesmo para a nossa área de trabalho conforme abaixo.

Faremos agora os devidos mapeamentos com a nossa base de dados para apresentar o gráfico de forma amigável e com informações consistentes.

Passo 1 – Na opção General façamos o mapeamento dos campos referentes ao Titles e Subtitles conforme demonstrado abaixo.

Passo 2 – Para as informações de dados na opção By Range faremos o mapeamento dos dados referentes aos itens Desktops, Notebooks, etc. em relação a todos os meses do ano. Na informação referente à By Series para cada item (Desktops, Notebooks, Servidores, etc.) fazer o devido mapeamento conforme demonstrado abaixo.

Para cada item no By Series faça o mapeamento para o campo Name  e para o campo Values(Y).

Para o mapeamento referente à opção Category labels (X) proceda com o mapeamento conforme abaixo.

Com os mapeamentos devidamente realizados execute o painel para verificarmos o resultado final desse componente.

Ainda existem outros recursos muito interessantes que muita das vezes são comuns aos componentes como, por exemplo, Insertion (Drill), Alertas, etc.

Espero que tenham gostado desse primeiro artigo dessa série no qual vamos abordar vários temas interessantes sobre o Dashboard Designer. No próximo artigo continuaremos a falar sobre os componentes existentes nessa poderosa ferramenta de criação de painéis gerencias.

Até a próxima.

nov 29 2011

Data Integrator (Parte 04)

No artigo de hoje falaremos sobre mais um recurso importante da ferramenta DI, que são as transformações, todo o processo de ETL necessita ter suas informações manipuladas para que se possam carregar na base dimensional. Como qualquer outra ferramenta de ETL o DI possui recursos para que essas transformações possam acontecer.

1 – Data Integrator Designer – Transforms

Transforms são objetos que operam sobre conjuntos de dados. Manipulam os dados de entrada e produzem um ou mais conjuntos de dados de saída.

HISTORY PRESERVING

Converte registros marcados para atualizar em registros para inserir. Mantém o histórico das mudanças dos registros através do tempo. Possibilita o uso de datas de validade dos registros (data de início e data de fim).

TABLE COMPARISON

Compara dois conjuntos de dados e produz a diferença entre eles como um cojunto de dados marcados para atualizar ou inserir no destino.

KEY GENERATION

Gera novas chaves para dados de origem começando de um valor baseado na coluna de uma tabela que se especificou. Este será sempre o maior valor da coluna, incrementado por um valor especificado também.

EFFECTIVE DATE

Organiza um conjunto de dados que possam repetir a data mas possui uma ordem de acontecimento. A transformação irá criar automaticamente uma data de fim conforme a sequência dos dados e ordem dos acontecimentos para o grupamento de dados exceto a data efetiva.

MAP OPERATION

Permite conversões entre códigos de operação. Assim, um registro marcado para atualizar pode ser convertido em um registro marcado para inserir, excluir, descartar ou não fazer nada.

CASE

Simplifica a lógica CASE. Proporciona criar várias saídas de acordo com expressões especificadas como filtros. Existe a opção “default” que é a saída quando o registro não se enquadra em qualquer outra especificada. As saídas não necessariamente são exclusivas. Para que isso aconteça, as expressões de saída tem que ser exclusivas. Senão um registro pode ir por mais que uma saída.

Quando for conectar a transformação CASE às tabelas destino, aparecerá um menu para se escolher qual a saída será aplicada para aquela tabela.

Isso só pode ser realizado após a configuração da transformação com suas expressões de saída.

QUERY

Recupera um conjunto de dados que satisfaz as condições especificadas.

Similar à declaração de SQL SELECT. Tem como entrada um conjunto de dados de uma ou mais origens e como saída um único conjunto de dados podendo ter mais colunas e transformações por funções.

Existem ainda mais alguns recursos disponíveis nessa ferramenta, recomendamos o leitor buscar informações em fóruns de discussão e sites especializados da SAP para o aprofundamento nessa poderosa ferramenta. Espero que tenham gostado dessa série de artigos sobre o DI e que com esses conhecimentos adquiridos o leitor possa ter mais base e conhecimento dos recursos a sua disposição para a realização de processos ETL.
Futuramente estaremos tratando sobre a nova versão dessa ferramenta que hoje se chama Data Services.

Até a próxima

 

 

 

 

nov 27 2011

Data Integrator (Parte 03)

No artigo de hoje continuaremos nosso estudo do Data Integrator com relação a parte de Designer. Hoje falaremos especificamente sobre Datastores e Dataflows.

1 – Data Integrator Designer – Datastores

Os Datastores representam as conexões entre o Data Integrator e os bancos de dados ou aplicações. Essas configurações podem ser diretas ou através de adaptadores. O Datastore permite que o Data Integrator acesse os metadados dos bancos de dados, leia e escreva dados enquanto um job é executado.

Para criar um Datastore, deve-se ir na Object Library, na aba de Datastores, clicar com botão direito dentro da janela e selecionar a opção New.

Então é só especificar o nome do novo Datastore, o tipo dele e do banco, a versão do banco, a instância e a chave e senha de acesso.

Clique no Datastore para visualizar as Tables, Functions e Template Tables que pertencem a ele.

Para importar as estruturas das tabelas de um banco de dados, clique sobre o Datastore com o botão direito e selecione a opção Import By Name…

A janela de Import By Name vai abrir para o determinado Datastore e então deve-se escrever o nome e o owner da tabela a ser importada. Funções e Procedures de Banco também são importadas do mesmo jeito. Basta selecionar o tipo como Function.

Com um duplo clique sobre um determinado Datastore, abrira-se a janela de External Metadata Todas as tabelas que a chave daquele Datastore pode visualizar irão aparecer. Assim, clique na tabela a ser importada com o botão direito e selecione a opção Import. A opção Reconcile serve para verificar diferenças entre o metadados do repositório e o metadados do banco de dados.

 

2 – Data Integrator Designer – Data Flows

Os Data Flows são os objetos responsáveis pelas extrações, transformações e cargas dos dados. Tudo que pode acontecer com um conjunto dados só ocorre dentro de um Data Flow.

Após a definição de um Data Flow, pode-se adicioná-lo a um Work Flow ou Job. Dentro de um Work Flow, o Data Flow pode enviar e receber informação de um objeto para o outro através de parâmetros de entrada e saída.

Pode-se criar um Data Flow pela Object Library ou por Tool Palette. Para abrir o Data Flow, basta dar um clique sobre ele.

Para construir um Data Flow, basta arrastar as tabelas e transformações da Object Library para o workspace. As tabelas devem ser definidas como origem(source) ou destino(target).

Parâmetros

Parâmetros tornam o Data Flow mais flexível. Quando um Data Flow está dentro de um Work Flow, este último pode passar variáveis como parâmetros para o Data Flow. Dentro de um Data Flow, variáveis não são permitidas. Assim elas só serão aceitas se seus valores forem passados como parâmetros para Data Flow.

Os parâmetros só podem ser criados de dentro do Data Flow através da janela de Variables and Parameters na aba Definitions, sendo visualizada ao clicar no menu Tools > Variables  Em Parameters, clique com o botão direito e selecione a opção Insert.

Porém os parâmetros só podem receber valores quando o Data Flow está sendo visualizado por fora.

Embedded Data Flow

Embedded Data Flow é um Data Flow chamado de dentro de outro Data Flow. Ele pode ser composto de várias origens (source) ou destinos (target), mas no máximo uma entrada e uma saída.

O uso de Embedded Data Flow não tem efeito sobre a execução do Job. O que muda é apenas a estrutura do desenho que fica mais organizada e limpa. Quando o Data Integrator executa o Data Flow pai, ele expande todos os Embedded Data Flows de dentro dele otimizando-o para a execução.

Bom, espero que com mais esse artigo possamos ter uma noção maior das potencialidades dessa ferramenta de ETL da SAP.

Até o próximo artigo onde falaremos sobre mais um recurso dessa ferramenta que são as transformações.

nov 22 2011

Data Integrator (Parte 02)

No artigo de hoje vamos continuar nosso estudo sobre Data Integrator, falaremos especificamente sobre o Designer do DI, veremos que é a partir do Designer que construiremos nossos processos ETL.

1 – Data Integrator Designer – Projects e Jobs

 

Projects

O objeto Project representa o nível mais alto de organização oferecido pelo Data Integrator.  Esse objeto é reusável e permite agrupar Jobs.

Abrir um projeto torna um grupo de objetos facilmente acessíveis a interface do usuário.

Os objetos Project são listados na Object Library.     Somente um pode ser aberto de cada vez. Projects não podem ser compartilhados por múltiplos usuários.

Os objetos do Projeto aparecem hierarquicamente na Project Area. Quando um sinal de (+) aparece significa que aquele objeto pode explodir nos objetos de níveis inferiores a ele.

Jobs

O Job é o único objeto que pode ser executado. Eles podem ser executados manualmente ou através do scheduler.

Um Job é composto de passos que serão executados em sequência ou ao mesmo tempo.

Se um diagrama do Job for complexo organize ele em objetos como Work Flows, Data Flows e Control Operations (Conditionals, Loops,…)

Existem 2 tipos de Jobs:
Batch Jobs – Processos que executam em horários definidos
Real-time Jobs – Processos que ficam ligados em tempo real esperando uma ação para realizar outra.

Para criar um Job, clique com o botão direito do mouse em um objeto Project aberto.  Então selecione New Batch Job ou New Real-time Job.

 

Ou clicando com o botão direito do mouse em Batch Jobs da aba de Jobs da Object Library. Então selecione New

WorkFlows

 

O Work Flow define a lógica de execução dos Data Flows.

Ultimamente, o propósito de um Work Flow é preparar o sistema para o início da execução do Data Flow e manter o controle para o término do Job. Um Work Flow pode chamar outros Work Flows.

As conexões entre Work Flows determinam a ordem de execução no Job.             Os seguintes objetos podem ser elementos de um Work Flow :

– Work Flows

– Data Flows

– Scripts

– Conditionals

– While Loops

– Try/Catch Blocks

Um Work Flow pode ser criado do mesmo jeito que um Job.

Para definir a lógica de execução dos Work Flows e Data Flows são usados os Scripts e os Control Operations como While Loops , Conditionals e Try/Catch Blocks.

Para executar Work Flows em paralelo basta colocar os Work Flows sem conexão na Workspace.

Control Operations – Conditionals

Conditionals são objetos para implementar a lógica IF / THEN /ELSE em um Work Flow. São usados com expressões booleanas.

Para definir um Conditional, você especifica uma condição e duas direções:

IF – Uma expressão booleana que retorna verdadeiro ou falso. Para construir essa expressão pode-se usar funções, variáveis e operadores lógicos ou aritméticos.

THEN – Elemento do Work Flow que deve executar se a expressão booleana retornar verdadeiro.

ELSE – Elemento do Work Flow que deve executar se a expressão booleana retornar falso. A cláusula ELSE é opcional.

While Loops

O objeto While Loops é usado para repetir uma sequência de passos em um Work Flow enquanto uma determinada condição for verdadeira. São usados com expressões booleanas.

A outra maneira interessante de usar While Loops é com as funções file_exists que verifica a existência de determinado arquivo e sleep que faz com que a execução espere alguns milissegundos para retornar ao loop.

Para definir um While Loop, deve-se criar uma expressão booleana para preencher a cláusula While e colocar os elementos na área abaixo que irão compor a sequência de passos que se repetição até a expressão booleana retornar falso.

Try/Catch Block

Um Try/Catch Block é a combinação do objeto Try e um ou mais objetos Catch que permite tratar erros diferentes para distintos Work Flows enquanto o Data Integrator está executando o Job.

As classes de exceção do objeto Catch está relacionada aos erros possíveis do Data Integrator, dos Bancos de Dados, e dos Sistemas Operacionais.

Em cada objeto Catch pode-se indicar os erros ou grupos de erros que deseja-se tratar e também definir qual Work Flow irá executar no caso de ocorrer a exceção. Erros podem ser forçados através da função RAISE_EXCEPTION

Espero que tenham gostado desse artigo, no próximo falaremos sobre Datastores.

Até a próxima.

 

nov 21 2011

Data Integrator (Parte 01)

No artigo de hoje falaremos de outra ferramenta muito importante da SAP chamada Data Integrator (Ferramenta de ETL). Vale ressaltar que na versão mais recente do SAP BO 4.0 essa ferramenta está com novo nome (Data Services).  Como no mercado ainda se trabalha muito com a versão anterior dessa ferramenta iremos abordar a versão que ainda está se usando no mercado. Futuramente estaremos falando sobre a versão mais recente o Data Services.

Introdução

 

O Business Objects Data Integrator permite acessar, integrar, transformar e disponibilizar dados corporativos para a criação de relatórios, consultas e análises, aplicações analíticas e gerenciamento de performance.

O Business Objects Data Integrator reúne todos os recursos das ferramentas de extração, transformação e carga (ETL) de alta performance, maior movimentação de dados em tempo real, datamarts pré-modelados, gerenciamento simplificado de metadados e análises, suportados
pela infra-estrurura de informação da SAP Business Objects.

1 – Arquitetura

 Abaixo ilustramos a arquitetura de forma resumida do Data Integrator e seus componentes. No decorrer desse artigo iremos detalhar melhor cara um deles e suas funcionalidades.

O Data Integrator é formado pelos seguintes componentes:

– Data Integrator Job Server

– Data Integrator Engine

– Data Integrator Designer

– Data Integrator Repository

– Data Integrator Access Sever

– Data Integrator Administrator

– Data Integrator Metadata Reporting

– Data Integrator Web Server

– Data Integrator Service

– Data Integrator SNMP Agent

 

DI Job Server -> O Job Server é quem inicia o processo de execução dos Jobs e consequentemente da integração dos dados de múltiplas origens, transformações, gerenciando extrações e transações de sistemas ERP. Ele pode mover os dados em modo batch ou real time.

DI Engine -> Quando os Jobs são executados, o Job Server inicializa os processos de Engine para realizar a extração, transformação e movimentação de dados. Esses processos podem usam paralelismo e realizar as transformações de dados em memória para fornecer uma melhor performance.

Obs.: O Job Server inicia e gerencia os processos de Engine de cada Job executado. Um Job quando executado pode ter vários processos Engine executando em paralelo.

DI Designer -> O Data Integrator Designer é uma ferramenta de desenvolvimento com exclusiva interface gráfica para o usuário. A ferramenta possibilita o desenvolvedor gerenciar mapas de dados, transformações e controlar qualquer lógica. Use o Designer para criar Jobs, Work Flows e Data Flows. Os objetos do Designer representam o metadados. Quando você está desenvolvendo um Job, você pode executá-lo do Designer. O Designer irá se comunicar com o Job Server e este irá executar o Job.

DI Repository -> O Data Integrator Repository é um conjunto de tabelas específicas para armazenar dados sobre os objetos criados, informações das origens (sources) e destinos (targets) e regras de transformações. Cada repositório pode ser associado a um ou mais Job Servers.

Existem 2 tipos de repositórios :

Local Repository – usado pelos desenvolvedores para armazenar definições de objetos do Data Integrator (Projects, Jobs, Work Flows, Data Flows) e informações das fontes origem (source) e destino (target).

Central Repository – é um componente opcional, que pode ser usado para suportar múltiplos usuários. O Central Repository possui uma biblioteca de objetos compartilhada permitindo que os desenvolvedores possam copiar objetos para seu Local Repository. (check in/out).

DI Access Server -> O Data Integrator Access Server é o serviço para os Jobs que executam em modo real time fazendo um gerenciamento de
mensagens de solicitação e resposta sem um horário predefinido. Pode-se configurar múltiplos Access Servers.

DI Administrator -> O Data Integrator Administrator é a ferramenta para administrar os recursos do Data Integrator através de um  browser incluindo :

– Agendamento, monitoramento, e execução de jobs em batch

            – Configuração, inicialização e paralização dos serviços de real time

            – Configuração do Job Server, Access Server, e visão dos repositórios

– Manutenção de usuários do Administrator

 

DI Metadata Reporting -> O Data Integrator Metadata Reporting é um conjunto de relatórios e consultas predefinidas dos metadados dos repositórios tais como :

– Relatórios de todos os objetos Projects, Jobs, Work Flows, Data Flows, Datastores, Transforms, File Formats e Custom Functions.

– Análise dos Datastores, Tables, Functions e relatórios de hierarquia.

– Estatísticas operacionais como da execução de Jobs, Data Flows,…

– Análise dos Universos do B.O. (Business Objects)

– Análise de dependências entre objetos.

DI Web Server -> O Data Integrator Web Server suporta o acesso ao browser do Administrator e Metadata Reporting. Em ambiente Windows esse serviço se chama Data Integrator Web Server. Em UNIX é chamado de AL_JobService.

DI Service -> O Data Integrator Service é quem inicializa o Job Server e o Access Server. Em ambiente Windows esse serviço se chama Data Integrator Service. No UNIX ele está incluído no  AL_JobService.

2 – Utilitários de Gerenciamento

 

License Manager -> O License Manager é a ferramenta que mostra a licença atual dos componentes do Data Integrator.

Repository Manager -> O Repository Manager é a ferramenta que permite criar, atualizar e checar a integridade das versões dos repositórios (local ou central).

Server Manager -> O Server Manager permite adicionar, excluir ou editar as propriedades do Job Server e Access Server.

Objetos do Data Integrator

Abaixo relacionamos os objetos que compõe o Data Integrator.

No próximo artigo falaremos mais detalhadamente sobre o Designer do DI, suas funcionalidades, etc.

Até a próxima.

out 22 2011

BW – Uma visão conceitual (Parte 04)

Nesse último artigo abordaremos a parte de apresentação do BW, alguns conceitos relacionados, sua arquitetura,etc.

Dentro da camada de apresentação do BW existem alguns conceitos interessantes para entendermos melhor como o BW trabalha com relatórios.

O que é uma Query?

  • A query é um acesso para recuperar e visualizar as informações da base de dados
  •  Uma query produz um relatório, combinando uma seleção de Características e  Índices para analisar dados do InfoProvider (ex. InfoCubo, ODS, InfoSet, etc.)
  •  Queries são definidas no BEx Analyzer e armazenadas no Servidor BW

O que é Workbook?

  •  Um workbook é um relatório customizado salvo no BEx Browser

Na figura a seguir ilustramos como esses elementos interagem.

A informação no InfoCubo pode ser acessada por queries que determinam a capacidade de navegação e a análise dos dados subjacentes.

Workbooks permite formatar as queries conforme as necessidades de cada usuário.

Com o Business Explorer podemos localizar relatórios, visualizar relatórios e analisar informações.

Consultas (Queries)

Na definição das queries podem-se restringir quais dimensões e indicadores do cubo serão visíveis, fazer restrições sobre as dimensões, executar cálculos sobre os indicadores além de outras funcionalidades.

A ferramenta de manutenção e visualização de queries no BW é o SAP Business Explorer Analyzer (Bex Analyzer). Trata-se de um add-on ao Microsoft Excel sendo, portanto, é necessário que este esteja instalado na estação de trabalho.

Ao abrir o Bex Analyzer, abri-se o Excel com uma barra de ferramentas adicional.

Para acessar as queries de um sistema BW, escolha o botão Abrir da barra de ferramenta do Bex.

Na tela de seleção de objeto para ser aberto no Bex Analyzer, pode-se:

Abrir uma query já existente: Selecione a query e escolha OK;

Modificar uma query existente: Selecione a query e escolha Modificar;

Criar uma nova query: Selecione o infocubo que dará origem a query e escolha Novo.

Criar / Modificar Query

Ao se selecionar o cubo e escolher Novo ou Modificar, será aberta a tela de estruturação da query.

Os elementos desta tela são:

  1. Elementos do cubo: mostra todos os objetos associados ao cubo (infoobjetos, atributos navegáveis, índices, índices restringidos, índices calculados, estruturas, etc.).
  2. Linhas da query: relaciona os elementos do cubo que estarão nas linhas da query;
  3. Colunas da query: lista os elementos do cubo que estarão nas colunas da query;
  4. Características livres: são elementos das dimensões do cubo que podem ser usados como critério de seleção pelo usuário;
  5. Filtro: representa restrições feitas à query e que não podem ser alteradas pelo usuário.

Os elementos 2, 3 e 4 são refletidos no resultado na query e podem ser invertidos entre si pelo usuário (um elemento da coluna ou linha pode ser reduzido a características livres e vice-versa).

Essa é a tela onde as consultas no BW serão construídas, a partir dela existem ainda muitos outros recursos que não trataremos nesse artigo, mas que futuramente estaremos mostrando alguns recursos dessa poderosa ferramenta.

Para finalizarmos esse artigo citaremos brevemente alguns benefícios da ferramenta BW que entre elas estão:

  • Qualidade: por ser integrado ao SAP R/3, não necessita de arquivos de interface, melhorando a confiabilidade quanto ao conteúdo das informações;
  • Autonomia: incentiva a geração de informações pelos próprios usuários (facilidade de visões e análises individuais através da WEB e/ou Excel), ocasionando elogios por parte dos usuários;
  • Segurança de acesso: possui instrumentos que controlam todo o ambiente;
  • Padronização da ferramenta de análise: pode ser adotado como única ferramenta de extração, armazenamento e disponibilização de informações;
  • Redução de custos: a administração, o desenvolvimento e a manutenção do ambiente é centralizada.

Bom pessoal o objetivo dessa série de artigos foi dar uma base inicial para aqueles consultores ou analista que estão começando e querendo aprender mais dessa ferramenta que está sendo adotada por mais empresas a cada dia que passa.
Espero que tenham gostado.

Até a próxima.

Posts mais antigos «