6

Click here to load reader

Resenha WoSida 2015

Embed Size (px)

Citation preview

Page 1: Resenha WoSida 2015

Faculdades Integradas Santa Cruz de Curitiba

Curso de Tecnólogo em Redes de Computadores – 4º Período

Disciplina: Sistemas Distribuídos

Professor: Silvio Bortoleto

Alunos: Deroci Nonato Júnior

Misael Gollub Polucheski

Rafael Romaniecki

Artigo: V Workshop de Sistemas Distribuídos Autonômicos

(WoSiDA)

RESENHA

V Workshop de Sistemas Distribuídos Autonômicos (WoSiDA). SBRC 2015 de 18 a

22 de maio – Vitória – ES. Disponível em <http://sbrc2015.ufes.br/wp-

content/uploads/proceedingsWOSIDA2015.pdf> acessado em 22/08/15 às 12:00.

Desde os primórdios da vida humana na terra o homem tenta reproduzir

ferramentas a sua semelhança. No mundo dos sistemas distribuídos não é diferente. A

tentativa de criar um sistema com as mesmas características humanas de

autoconfiguração, auto cura, auto otimização, autoproteção, entre outros é algo que a

comunidade está buscando. Os principais desafios são a variabilidade de recursos,

requisitos de usuários, intrusões e falhas no sistema. Com o tamanho final desses sistemas

se torna uma tarefa extremamente árdua de se gerenciar, pois os serviços relacionados

precisam ser escaláveis, seguros e continuamente disponíveis.

Este Workshop realizado pela SBRC 2015 foca em modelos e algoritmos de

sistemas distribuídos, ferramentas e tecnologias de engenharia de software. Os tópicos

trabalham modelos e algoritmos de sistemas distribuídos, suporte de programação,

projeto, middleware, linguagens de programação para sistemas distribuídos autônomos,

modelagem e análise de sistemas distribuídos autônomos, variação e validação, aspectos

de confiança em sistemas distribuídos autônomos, aspectos de auto-organização, suporte

ao comportamento autônomo em grades, sistemas P2P e redes de sensores, algoritmos e

técnicas inspiradas em sistemas biológicos; e rede autônomas.

O primeiro assunto tratado foi o Fornecimento de Elasticidade

Computacionais Híbridas nas Nuvens com Base em Conceitos Autônomos de

Computação. Foi realizado um projeto com base no autosserviço sob demanda, acesso à

rede ampla, agrupamento de recursos, elasticidade rápida e serviço quantificado. A

Page 2: Resenha WoSida 2015

proposta é ter um ambiente autônomo responsável por gerenciar seu próprio

comportamento de acordo com as políticas e interagir com outros elementos autônomos

que prestam serviços computacionais. No artigo é descrito que a principal contribuição

dele é: Uma arquitetura híbrida baseada em alguns conceitos de Computação Autônoma

para disponibilização de elasticidade na computação em nuvem e uma experiência

realizada em uma nuvem híbrida para validar a arquitetura proposta. Também é afirmado

no artigo que Kephart e Chess baseia este conceito em malhas de controle, coletores,

atuadores, regras e configuração, porem o que foi proposto foi uma nova visão que talvez

tenha fugido do alcance dos outros, o uso de um complemento para proporcionar

elasticidade em nuvens híbridas.

Os recursos utilizados foi construir uma nuvem privada com OpenNebula

3.8, máquinas virtuais com um vCPU e 1 GB de memória RAM, Microsoft Azure com

A1, instância (1 núcleo e 1,75 GB de memória RAM), quatro máquinas virtuais, Apache

Tomcat como armazenador web, ferramenta httperf como gerador de carga de trabalho, e

NGINX como balanceador de cargas. As cargas de trabalho foram geradas diretamente no

balanceador de carga das máquinas virtuais, vindo de navegadores da web e httperf. As

regras utilizadas foram: uso da CPU acima de 70% (aloca uma nova máquina virtual),

inferior a 60% (desalocar uma máquina virtual), e entre 60% e 70% (mantém atribuição).

Eles informaram que mantiveram o nível de serviço porem ainda foi apresentado uma

pequena queda. Uma questão que poderia ter sido levantada é um timer ou medidor de

uso de processamento para contar o tempo que as maquinas “a mais” foram utilizadas,

pois pensemos em um provedor de serviço, temos um cliente que atingiu 100% e precisa

de mais processamento, e contratou este serviço de elasticidade hibrida na nuvem, será

necessário medir o tempo que foi utilizado a mais do que o contrato para realizar a devida

cobrança. Temos a oportunidade de disponibilizar um serviço global de processamento

ilimitado acionado automaticamente por qualquer um que contratar o serviço, assim

teremos recursos “ilimitados” tanto de processamento como de armazenamento. O

experimento foi realizado para verificar a disponibilidade do nível de serviço e para

provar que é possível ser utilizado. Poderia ser implementado uma verificação para

autorização de expansão. Ser enviado um e-mail ou SMS para o administrador da rede

solicitando autorização para escalabilidade, a ideia é realizar tudo automático porem o

sistema autônomo além de se auto gerenciar deve informar todas a anomalias para seu

administrador.

Os pontos levantados pelos autores é que o sistema conseguiu manter a

elasticidade acionando mais maquinas automaticamente quando necessário e as

desligando quando não. Em quase todo o percurso do teste o nível de serviço foi mantido

exceto quando foi consumido todo os recursos de todas as maquinas, ou seja, a

elasticidade chegou ao máximo. O uso dos princípios de computação autônomo foi de

nível satisfatório, sendo essencial o uso de Loops de controle, coletores, malha de controle

e atuadores de acionamento.

A conclusão do artigo foi que utilizar a Computação Autônoma para

aplicação de elasticidade de processamento em nuvem é algo que realmente funcional em

todos os aspectos possíveis. Para os trabalhos futuros irão trabalhar com outros cenários

e outros critérios para desenhar as regras, como tempo de resposta de solicitações e de

transferência. Além disso, as utilizações de outros níveis de malhas de controle podem

Page 3: Resenha WoSida 2015

melhorar a eficácia da arquitetura, com foco em um melhor desempenho, também deve

ser explorada estratégias de elasticidade, como a verticalização de soluções de

elasticidade e soluções híbridas.

O assunto de outro artigo tratado é de Autogerenciamento de Peers

Distribuídos através de um Protocolo de Intenção Comum Estendido e visa a aplicação

de noções de colaboração dos Peers, em vez gerenciamento de processo externo que gere

artificialmente as interações entre eles. É registrado que a coordenação descentralizada

de autogestão dos Peers pode estabelecer propriedades incertas para o ambiente de

sistemas distribuídos. O foco do artigo e dos testes que foram elaborados é para pares

distribuídos apresentem um comportamento de autogestão colaborativa ao executar

atividades. Para este teste foi aplicado a Teoria da Vontade Comum de Levesque. Esta

teoria se baseia em processos distintos sendo capazes de se coordenar para alcançar um

objetivo através de compromissos com base em um plano que visa o mesmo resultado

final. Tais processos são construído em torno de dois conceitos principais: Meta Fraca

que especifica as condições do objetivo em um processo, e as ações que devem tomar se

a meta for cumprida, irrelevante ou impossível. E Meta Persistente Conjunta que

especificam um conjunto de compromissos em um conjunto de processos para alcançar

um objetivo em comum.

A Meta Fraca em termos práticos, um Peer solicita a execução de uma

atividade, se o Processo1 tem que realizar Atividade1, Processo1 tem um compromisso

para executar a Atividade1 (ou pelo menos tentar), ou para comunicar sua conclusão,

falha ou irrelevância para o Peer solicitante. A Meta Persistente Conjunta garante que os

processos comuns não podem ser descartados até que a Atividade1 seja mutualmente

considerada cumprida, irrelevante ou impossível. Este compromisso também garante que

um processo se mantenha atualizado sobre a situação das atividades de outros processos

e, portanto, não enfrentam riscos desnecessários ou perdem tempo com ações

improdutivas. Assim se o plano for considerado inválido, os Peers podem tentar uma

sequência diferente de ações que produzem um mesmo resultado. Setando a atividade

com a solução comum. A vontade comum obriga o compromisso entre os pares que

pretendem colaborar.

No teste que foi realizado foi utilizado 10 pares distribuídos controlando e

entidades virtuais que representa a cidade de Kobe ao longo de 150 ciclos de segundo. O

primeiro teste foi utilizando a Meta Fraca e o segundo a Meta Persistente Conjunta onde

foi possível verificar um desempenho certa de 40% maior no segundo teste devido ao as

regas de metas conjuntas entre os Peers. Nos projetos futuros os autores pretendem

explorar domínios distribuídos mais complexos e a ideia de relatórios de execução que

pode apoiar o uso de práticas de auto otimização. Poderia ser trabalhado a hierarquia de

Peers autônoma, ou seja, com base em análise de desempenho os Peers com baixíssimo

uso de recursos se tornam submissos hierarquicamente dos Peers que tem um grande uso

de recursos. Onde que, Peers de consumo equivalente são hierarquicamente equivalentes.

Os Peers hierarquicamente equivalente devem realizar a negociação para definição de

metas, e os Peers que já são submissos a um Peer a tarefa é demandada direta a ele, se

tornando assim mais rápida a negociação e a execução da tarefa. Pode ser trabalho

também uma forma em que todos os Peers ociosos fiquem constantemente sinalizando os

Page 4: Resenha WoSida 2015

demais Peers, assim quando surgir uma demanda os demais Peers já tem uma tabela criada

dos Peers ociosos e já sabem a quem demanda o determinado processo.

Outro artigo abordado foi Uma Heurística Híbrida para o Roteamento por

Múltiplos Caminhos em RSSFs onde foi referenciado que em redes de computadores, os

principais desafios é conseguir níveis de alto desempenho, principalmente em uma rede

sem fio. Os autores deste contexto abrangem inicialmente o RSSFs (Redes de Sensores

Sem Fio) como sendo um tipo rede problemática, citando falhas de transmissão de dados

devido as suas interferências e quantidades de nó.

É frisado definições retiradas de referências, uma possível solução em uma

rede RSSFs, é a de Dressler and Akan que consiste em algoritmos bio inspirados que

podem oferecer uma alternativa distribuída para tratar os problemas de roteamento, ou

seja, para uma boa confiabilidade na entrada dos dados, será a utilizado protocolos de

roteamentos por múltiplos caminhos. Esta solução irá depender da quantidade de

dispositivos utilizado em pequena, grande ou larga escala, quanto mais dispositivos na

rede maior é o consumo de energia. Neste ponto que entra a ideia da heurística distribuída

muito eficiente para ambientes em larga escala, chamado comunidades, sendo um sensor

que aplica em um nó e é direcionado para um sensor chamado de VS (ou sensores

especiais) maximizando a energia entre os demais nós. Pulando para a segunda parte,

começa a descrição de como resolver toda esta questão de uma rede RSSF. Tudo o que

se pronuncia durante o contexto é a utilização de algoritmos e algumas fórmulas. Durante

as etapas, são descritas as formulas criadas para a solução de cada ponto dos problemas

mencionado acima.

Concluindo, é apresentado os testes realizados em um cenário compostos por

1.000 nós utilizando um simulador chamado OMNET++/Castalia, com isso é descoberto

quais equações obtiveram a eficiência de roteamento, transmissão e de energia no qual

poderá ser utilizada nas estruturas da rede.

No artigo Uma Proposta Arquitetural de Sistema Autônomos para Redução

do Custo de Energia em Laboratórios de Informática foi registrado que atualmente, muito

se refere a redução de custo no modo geral. Os autores deste trabalho citam um conceito

para a população, que ajudam evitar a emissão de carbono e gastos de energia

desnecessários. A internet ou Internet das Coisas vem sendo um “vilão” para a sociedade,

pois com ela, são utilizados diversos dispositivos heterogêneos interconectados em uma

rede ocasionando mais e mais uso de energia. Com isso, a TIC (Tecnologias de

Informação e Comunicação) aparece com suas ferramentas auxiliando a causa.

No texto é demostrado uma arquitetura com recursos computacionais que

serão usados para uma possível solução, entre eles são: Sensores, aplicações para reunir

dados coletados, aplicações clientes nos computadores de laboratórios e aplicações para

o dispositivo mobile. Após a análise dos aspectos funcionais proposta pelos autores,

temos por conclusão que é de grande utilidade e importância o projeto de reduzir o custo

de energia em laboratórios de informática, tendo o poder de expansão muito grande.

No artigo, Avaliando o Impacto da Disseminação Assíncrona de Operações

na QoS de Bases de Dados Replicadas, foi proposto que em ambientes como a Internet

podemos aplicar modelos de distribuição de recursos para atender requisitos de garantia

Page 5: Resenha WoSida 2015

de disponibilidade, um exemplo seria através do uso de bancos de dados replicados.

Porém neste ambiente muitas aplicações como por exemplo as redes sociais, demandam

de baixo tempo de resposta e em alguns casos a replicação de dados pode comprometer a

baixa latência. Contudo, nos mostram os autores, estas aplicações podem tolerar um tipo

de consistência fraca chamada de consistência eventual, e assume que, a partir de dado

momento todas as réplicas podem retornar a mesma informação. Por ser um requisito

fundamental o tempo de resposta é definido como métrica principal para determinar o

nível de qualidade de serviço.

Sendo assim os autores defendem um modelo de replicação de dados baseado

na replicação periódica de dados em lote, denominada replicação assíncrona. Esta

estratégia é uma variação da estratégia chamada Lazy Master. Nesta estratégia qualquer

réplica pode responder requisições de leitura. Nas operações de escrita uma réplica

denominada master é atualizada pela transação original e depois propagada de maneira

assíncrona para as outras réplicas após algum intervalo de tempo, intervalo este chamado

de Delta. No decorrer dos testes apresentados no trabalho, podemos notar que o chamado

Delta possui impacto direto sob a performance das operações bem como sob a

consistência e disponibilidade das informações. O tempo médio das repostas está

diretamente ligado ao timeout da operação de replicação, a vazão média de dados

diretamente ligada ao Delta e ao aumento no número de clientes.

Como conclusão baseando-se nos resultados temos que existe uma relação

direta entre o valor do Delta utilizado na disseminação assíncrona, o tempo de resposta e

a janela de inconsistência. Se fazendo desta forma a necessidade do uso de mecanismos

de auto-gestão para modificações do ambiente de acordo com o nível de compromisso

requisitado e a janela de inconsistência.

No último artigo proposto, Adicionando CBR na Gerência Autônoma de

Redes, foi nos apresentando que em um sistema autonômico é desejável que exista um

histórico de decisões já tomadas anteriormente para que estas informações armazenadas

auxiliem na análise de novas soluções. Por outro lado, o armazenamento de informações

de um ambiente de rede complexo como de um sistema autônomo pode aumentar a

complexidade de se gerenciar o sistema. Os autores assim defendem a necessidade da

especificação de novas soluções. Como solução os autores propõem a especificação de

um motor de buscas de soluções que permita modelar o conhecimento no contexto da

gerencia de redes operando com baixa necessidade de aquisição de conhecimento sobre

a rede evitando assim erros cometidos no passado. Propõe ainda uma base de dados com

apresentações de dados de forma flexível com a possibilidade de modificação e

recuperação dos dados em tempo factível.

Os Autores relatam que o funcionamento do CBR é similar à forma humana

de resolução de problemas, onde os problemas são resolvidos tendo como base

informações de problemas anteriores. No documento é proposto o CBR oferece como

suas principais vantagens: A redução da tarefa de aquisição de conhecimento; Evita a

repetição de erros do passado; proporciona flexibilidade na aquisição de conhecimento;

Raciocínio em um domínio de pouco conhecimento; Raciocínio onde há dados

incompletos ou imprecisos. No decorrer do documento são apresentadas formulas e

Page 6: Resenha WoSida 2015

formas utilizadas pelo sistema para mapeamento, determinação e formas de soluções para

um problema.

É defendido que para a utilização do CBR seja possível, é necessário a

utilização de um método capaz de armazenar e indexar as informações na forma de

experiências contextualizadas. Desse modo o método utilizado para armazenamento,

indexação e contextualização é essencial para o sucesso do sistema. É proposto ainda que

um caso consiste basicamente de duas partes: O problema e a solução e que estes podem

ser divididos em várias partes menores. No contexto do artigo são informações

relacionadas a topologia de rede, tráfego, problemas encontrados e expectativas do

administrador de redes. Diante do apresentado no artigo conclui-se que a utilização do

sistema de CBR possibilitou melhoria na eficiência e flexibilidade na busca de novas

soluções. A eficiência se deve a redução de tempo na resolução de problemas já

relacionados na base. A flexibilidade é devido a possibilidade de problemas diferentes

serem solucionados utilizando uma base não diretamente ligada ao tema, utilizando

referencias contextuais para isso.