Quantas Instruções por Ciclo?
Palestrante: Luiz Carlos Orsoni
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Abrindo a caixa de ferramentas: atirando pedras com Jmeter
Palestrante: Evandro Grezeli de Barros Neves
Jmeter é uma ferramenta livre e open source cujo objetivo é gerar carga para estimular plataformas online, independente do tipo de arquitetura. Dando continuidade a trilha sobre testes de desempenho, neste workshop será apresentado como é o funcionamento desta ferramenta e qual a melhor forma de utiliza-la, citando exemplos de utilização em uma arquitetura remota com agentes escravos; melhores práticas para não onerar a ferramenta; exemplos de scripts para testes baseados em filas MQ, frameworks com visão e simular navegação de usuários.
Abordagens para implementação de ILM
Palestrante: Adelson Lovatto
Nesta apresentação vamos cobrir os principais conceitos de Information Lifecycle Management, desde a sua origem até os dias atuais, e apresentar maneiras de implementar este importante modelo de referência de forma a otimizar a gestão de informações e reduzir custos com a infraestrutura de armazenamento de dados.
Qualidade no Desenvolvimento de Sistemas
Palestrante: Anderson Augustinho
Com a vinda da Internet, cada vez mais os sistemas são desenvolvidos para trabalhar em ambientes distribuídos, por exemplo: aplicativo web em um servidor, banco de dados em outro e assim por diante. Para que se obtenha o melhor potencial destes, é obvio que o desempenho dos ativos que o cercam têm que serem bom (servidores, ativos de redes, outros sistemas, entre outros), mas o foco principal deste artigo é o desenvolvimento do sistema em si. Desenvolver utilizando as melhores práticas de programação, aproveitar todos os recursos que as linguagens dispõem e produzir um código limpo são primordiais para que se miniminizem as falhas e se construa um sistema de qualidade, assim será possível racionar os recursos envolvidos e minimizar os custos.
Measurement and Management of SQL Server.
Palestrante: Marcus Vinicius Bittencourt
Nessa sessão será abordado técnicas para medição e monitoramento de um SQL Server. DBA’s e empresas pecam na monitoria de seus ambientes, dados extremamente importantes e métricas são perdidas por falta de acompanhamento destes dados. Identificar contadores importantes e como analisa-los de forma a ter informações valiosas do seu ambiente, é um caminho para o bom conhecimento da sua estrutura. Vamos ver métodos e formas de identificar o comportamento do seu ambiente e como testá-lo da forma correta. Como utilizar destas informações para criar baseline e dimensionar o crescimento antes de sermos surpreendidos. Como trabalhar de forma proativa e evitar esforços maiores, um ambiente bem dimensionado e monitorado, diminui a probabilidade de problemas repentinos. Monitorar e gerenciar nosso ambiente é uma atividade crucial nos dias de hoje, veja como tirar o maior proveito disso.
As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje.
Palestrante: Álvaro Guimarães Salla
Fascina-me a frase: “As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje”. Veja, por exemplo, na política brasileira… Lembro-me, ainda jovem (sim, eu o fui), mostrando às pessoas do Banco do Brasil (mais jovens ainda), recém-chegadas das agências, que computador não era um cérebro eletrônico. O ano que estávamos (ou ele que estava?) era 1.969. Depois de alguma falsa erudição, eu concluía sem brilhantismo, a meio do pasmo geral, que uma CPU não pode executar dois programas ao mesmo tempo. Após algum sofrimento causado pelos conceitos novos, a ideia era entendida e se transformava em verdade eterna e sólida.
Anos mais tarde, o primeiro MP65 com as suas duas corpulentas CPUs. Os mesmos alunos e toca a explicar como garantir a integridade dos dados compartilhados por elas na memória. Eu dizia enfático: “Isso é uma responsabilidade do sistema operacional, implementado via locks e latches”. Mais uma verdade eterna e sólida se construía e era enfiada goela abaixo da anoréxica plateia. But, time went by… Então, no dia 18 de Maio próximo, esta pessoa que vos escreve (agora bem velha), irá subir ao púlpito do CMG para humildemente repetir a frase inicial deste texto e depois dizer:
“Sim senhores (as), a função Simultaneous Multithreading do z13 nega a primeira eterna e sólida verdade e a função Transactional Execution Facility (zEC12 e z13) nega a segunda eterna e sólida verdade”. No passado, terminei chamadas para o CMG como esta, com o lugar comum: “Não Perca”… Agora, não sei… Talvez eu diga “Perca…”, mas ao menos você sabe o que estará deixando de ganhar, isto é, mais duas eternas e sólidas verdades…
Modelagem Analítica – Queueing Theory (Part I).
Palestrante: Etéocles da Silva Cavalcanti
Não é um assunto novo e nem uma novidade, mas …modelos de filas são ferramentas importantes para os profissionais que atuam na área a de Capacity Planning e estão cada vez mais inseridos em muitos produtos e ferramentas, mas … quando modelos analíticos estão disponíveis para serem utilizados, tornam-se um problema sério pelo fato de há uma barreira quanto do seu uso e seus resultados, normalmente por falta de conhecimento, conceitos, premissas, métricas estatísticas e sobre os modelos. Esse assunto realmente tem uma complexidade teórica estatística muito alta e se entramos nos detalhes teóricos passamos a temer sobre seu uso e resultados.
O objetivo é apresentar de uma forma simples e direta que modelagem analítica é ainda uma ferramenta importante e que devemos e podemos utilizá-la melhor se tivermos conhecimento melhor do seu uso e seus resultados. A simples construção de ferramentas que calcule todas as métricas estatísticas dos componentes de um sistema de fila, gera a oportunidade de realizarmos simulações com pequenas mudanças de parâmetros. Nos estudos de capacidade a utilização de teoria das filas passam a ter mais consistência e sua flexibilidade nas análises e/ou questionamentos complexos trazem respostas rápidas e consistentes aos nossos gestores na tomada de decisão.
Estudo comparativo entre treinamento supervisionado e não supervisionado em agrupamento de dados nos IDSs baseados em anomalias
Palestrante: Paulo Barreto
Os IDSs baseados em anomalia com agrupamento de dados obtêm boas taxas de detecção para ataques novos, porém precisam de treinamento para, entre outras coisas, determinar os limites dos agrupamentos. Os limites influenciam diretamente a taxa de detecção e falsos positivos. Este trabalho apresenta estudo comparativo entre treinamentos supervisionados e não supervisionados em IDSs baseados em anomalias com agrupamento de dados e apresenta resultados de qual técnica oferece melhor limite de agrupamento e sua influencia nas taxas de detecção de intrusão e falso positivo.
Internet of Things (IoT) – a case study for home power save internet das coisas – um estudo de caso para economia de energia elétrica domiciliar
Palestrantes: André Brazioli e Haroldo da Silva Ferreira
In today’s world, Internet of Things (IoT) is a reality that is coming to industry and users with infinite possible applications, the prospects said that it will cause a huge change on humans way of life. An important point on the new connected world is the increasing on the energy consumption, especially on homes that’s the focusses of this study. This article explain a simple way in order to have any electric device consumption measured, and them activated with the presence of a smartphone by an Arduino. With this idea, it is possible to deactivate everything that consumes power and it is not in use without the presence of the owner. For illustration, as per Ross, J. P. & A. Meier. 2000 article, that measure the variation in standby power consumption in ten California homes, has arrived in total standby power ranged from 14–169 W, with an average of 67 W. This corresponded to 5%– 26% of the energy usage.
Index Terms—Internet of Things, Power consumption, Arduino
Cloud Computing
Palestrante: Daniel Segabinazzi
Cloud Computing is a reality and a decisive factor not only for Business Continuity but for competitiveness in such way to leave less competitive that organization that deny the use of this technology. This article has an objective to treat this new vision about IT as a service guarantees data integrity using technology for its safeguard. Specific in cases of data corruption or virus propagation in all Sites of Data replication.
Como configurar seu zSystem para workloads rebeldes
Palestrante: Fernando Nogueira Alves Ferreira
Com a evolução das tecnologias de processador e o esgotamento do crescimento com base na frequência, a arquitetura e uso dos caches passou a ser cada vex mais importante na definição da capacidade dos processadores. Conceitos com caracterização de workloads, CPI (Cycles per Instruction ), RNI, cache miss, alocação de PUs por Book/Drawer, Hiperdispatch passaram a ser cada vez mais essenciais para entender o comportamento de desempenho dos servidores zSystems. Nesta apresentação vamos falar sobre esses conceitos e sobre como caracterizar workloads, entender fatores que podem afetar o uso da estrutura de caches e como melhor configurar e gerenciar as cargas do seu servidor.
Automação do Workload e a TI Bimodal
Palestrante: Adolfo Eric Petersen
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
Os principais desafios de Implementar um Processo de Planejamento de Gestão de Capacidade e Performance
Palestrante: Emerson Roberto Castelano
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.