A usabilidade de computadores

Durante a década de 80 o Brasil começou a assistir a adoção de microcomputadores nos ambientes profissionais. Os microcomputadores entraram meio que pela janela no mercado brasileiro pois graças a “Lei de Informática” imposta pela ditadura militar, era proibido importar computadores em geral e microcomputadores em específico. A ideia era estimular a produção local de computadores. Apesar da boa intenção, isso acabou foi criando um cartel que apoiava politicamente a ditadura em troca das benesses. Mas isso é outra história. O fato é que os microcomputadores “fabricados” aqui no Brasil eram defasados tecnologicamente, eram caros, mas eram uma alternativa mais viável do que os caríssimos mainframes dos fabricantes estabelecidos: IBM, Digital, Burroughs (futura Unisys), ABC Bull, Honeywell .. etc.

Assim como o hardware era limitado, a oferta de software aplicativo era muito pobre. Sem software o computador faz coisa nenhuma. Então o que fazer ? Treinar os profissionais a utilizarem os computadores para aproveitar o potencial desses equipamentos. Muitos profissionais de mainframe acreditavam que computadores precisam ser programados para se tornarem úteis e danaram-se a treinar usuários leigos em programação. Grande erro. Embora programação não seja uma ciência inacessível, a produtividade de um funcionário regular pode ser enormemente aumentada sem que ele precise saber programar. A ideia é ensinar os funcionários, agora chamados de “usuários” a usar o computador, não a programá-los.

No orgão público em que eu trabalhava nos meados da década de 80, os microcomputadores invadiram a repartição. Entre motivos escusos e justos, o serviço público foi as compras de microcomputadores e agora só precisava achar um problema para essa solução. O que fazer com os micros? A abordagem anacrônica de ensinar pessoas “normais” a programar foi adotada. Eu era estudante de ciência da computação e vários chefes diretos/indiretos meus eram meus professores da faculdade. Um deles insistia em ensinar BASIC para os usuários. Apesar da farra de compras, microcomputadores eram caros e raros e as turmas de 40 alunos funcionários da repartição tinham que compartilhar 2 míseros computadores PC clone de 16 bits, 640Kbytes de RAM e HD de uns 10 megabytes (UAU!) nas aulas práticas. Como eu era um aluno do chefe, ele me elegeu monitor das suas aulas práticas que consistia em fazer um programa que convertia temperaturas em graus Fahrenheit para graus Celsius. Imagina, uma coisa útil dessas, que nenhum ser humano hoje em dia consegue viver sem, né? Todo dia precisamos converter temperatura de F para C, né mesmo ? Ou não? Ah bom…

A atividade era um tédio enorme. Enquanto dois alunos digitavam o programa BASIC, erravam a digitação, se frustravam quando o programa não funcionava por qualquer erro de lógica ou sintaxe e quando se frustravam mais ainda quando viam o produto do programa que na hora H era absolutamente inútil, sejamos francos. Depois de algumas aulas soporíferas decidi trocar o programa em BASIC por uma planilha em Lotus 1-2-3 (um precursor do Excel) que fazia um gráfico bacana com o biorritmo da pessoa baseado na data de nascimento. Pura cascata com credibilidade igual ou inferior a astrologia ou qualquer outra pseudociência dessas. Mas fazia um sucesso! A impressorinha matricial passava a aula toda gemendo imprimindo os gráficos de biorritmo dos alunos. Como tínhamos 2 computadores, eu tomava conta de metade da turma, meu professor/chefe ficava com a outra metade. O resultado era que dos 40 alunos, uns 3 ou 4 (sempre tem uns caxias) ficavam lá batalhando com o professor para fazer o programa em BASIC. O resto ficava no grupo do biorritmo, tirando gráfico para si mesmo, para marido, esposa, filho. Um sucesso.

Confesso que foi um pouco ousado da minha parte mudar o programa do curso sem pedir a benção ao “professor”. O fato é que o conceito de utilização de planilhas eletrônicas era avançado demais para os já dinossauros àquela época (estamos falando dos anos 80) que insistiam que para usar bem um computador tem que saber programá-lo.

Revendo na marra esse conceito, as próximas turmas de “Introdução a Microcomputação” deixaram de ser teóricas e com ênfase em programação e passaram a ser muito pragmáticas e utilizando planilha eletrônica (Lotus 1-2-3), processador de texto (Wordstar) e banco de dados (dBASE III plus). Hoje em dia seria algo semelhante a um curso de Excel, Word e Access. Não havia um produto bom para o papel que hoje é do Powerpoint.

No órgão governamental em que eu trabalhava, as planilhas eletrônicas eram uma benção para os profissionais de planejamento urbano, planejamento global, planejamento setorial. As demandas que estavam enfileiradas há anos no CPD (centro de processamento de dados) podiam ser atendidas rapidamente com um punhado de planilhas. Mais do que isso, o próprio usuário poderia bolar a sua solução aproveitando de sua própria intimidade com o assunto, muito maior do que a de qualquer analista de sistemas que fosse designado a fazer um sistema “convencional” para cuidar do assunto no mainframe.

Como toda novidade, a organização partiu para adoção ainda mais intensiva de microcomputadores. Sem o devido planejamento, obviamente, isso trouxe sérios problemas. O mais comum naquela época era superestimar a capacidade de processamento e/ou armazenamento de dados dos microcomputadores (de 640k de RAM, 10 mega de disco, processador de 16 bits e … 4mhz de velocidade, sentiu o drama?). Para complicar, redes locais não eram viáveis tampouco disponíveis no Brasil. O máximo que se podia fazer era uma emulação muito porca de um terminal IBM 3278 utilizando um aplicativo desenvolvido em CICS, ou CSP no mainframe e um emulador de terminal no microcomputador. Ah… esqueci … para fazer isso o bendito do micro tinha que ter a famigerada “Placa Irma” que era um gizmo que conectava fisicamente o microcomputador ao mainframe via cabo coaxial se passando por um terminal. Detalhe, essa placa  era proibida de ser importada então eram “clonadas” descaradamente pelos fabricantes locais. Não precisa dizer que quando tinha um problema de compatibilidade ou necessidade de suporte técnico, a IBM lavava  completamente as mãos. A IBM não tinha interesse algum em fomentar um mercado de microcomputadores do qual ela estava proibida por lei de participar.

Mais do que a questão tecnológica que popularizou e disseminou o uso de computadores (micros) nas organizações, a demanda de informação e de consumo da informação era o driver latente para tal disseminação. A queda do preço dos equipamentos e o surgimento de softwares aplicativos melhores apenas atendeu a demanda que já existia.

Hoje esse fenômeno acontece num ciclo de velocidade mais rápida. Se de um lado os microcomputadores ocuparam o espaço profissional, os aplicativos móveis nos smartphones permeiam a vida das pessoas tanto no profissional como no pessoal. A usabilidade aí é o que propicia o atendimento das demandas de informação. O que impulsiona é essa necessidade. A usabilidade é o catalisador.

 

 

Anúncios

O provedor de internet afeta a velocidade do meu acesso ?

Sim, o provedor afeta a qualidade e a velocidade da internet do usuário.

Entenda que um provedor é nada mais do que um “atacadista” de internet. Ele compra internet de um provedor MAIOR em atacado, em grande “quantidade” (na verdade em grande velocidade) e revende no “varejo”, em pequenas partes, para os seus clientes.

Por exemplo, um provedor pequeno (vamos chamá-lo de tartaruga) compra 1000 megabits por segundo de um provedor maior (vamos chamá-lo de coelho). Como ele está comprando uma velocidade grande dessas, o coelho dá um desconto para tartaruga.

O coelho então faz a conexão em alta velocidade entre a sua sede e a sede de tartaruga.

Tartaruga liga a sua rede a conexão que coelho proveu e acessa a internet.

Aí um cliente de tartaruga, vamos chamá-lo de caramujo, compra de tartaruga um acesso de 10 megabits por segundo. Como tartaruga tem 1000, caramujo vai ocupar 10, sobram 990 megabits para tartaruga vender para outros otário.. .quer dizer … clientes. Tartaruga então vai passar um cabo de fibra ótica, ou coaxial ou fio de cobre entre a sua sede e a casa de caramujo. Em cada ponta do fio/fibra/cabo tartaruga instala um “roteador” para interligar os equipamentos da casa de caramujo a rede de tartaruga em sua sede. Essa ligação pode ser feita inclusive via rádio. Assim que os provedores em geral funcionam, inclusive os provedores via rádio.

Ora , se tartaruga vende acessos de 10 megabits e ele tem 1000 megabits significa que tartaruga só poderia ter 1000/10 = 100 clientes como caramujo.

Aí começa a malvadeza dos provedores de acesso. No ramo de provedores essa malvadeza se chama “colocar água no leite”. Ou seja, tartaruga compra 1000 megabits por segundo mas vende muuuuuuuuito mais do que esses 1000 megabits.

Suponha que tartaruga tenha 100 clientes de 10 megabits por segundo cada um. Então 100 * 10 = 1000 megabits que ele comprou de coelho .. até aí tudo bem.

Mas e se tartaruga vender para outros 100 clientes os mesmos 10 megabits ?

Ele vai ter 200 clientes cada um a 10 megabits por segundo, portanto ele vendeu 200 * 10 = 2000 megabits ! É o dobro do que ele compra de coelho !!! Como pode isso ?

O que acontece é que a maioria das pessoas, quando acessa a internet apenas para navegar na web, enviar/receber email, mandar/ mensagens via skype/whatsapp, passa a maior parte do tempo LENDO/ESCREVENDO o conteúdo e só alguns momentos usando de fato a capacidade de recepção/transmissão da internet.

Por exemplo, quando você acessa o site de perguntas e respostas para escrever uma pergunta, você acessa a página, ela é transmitida para o seu computador. Aí para a transmissão, a sua internet fica ociosa. Enquanto você está lendo a página e depois escrevendo a pergunta, nada é transmitido/recebido. O seu provedor não envia nem recebe dados. Fica ocioso. Quando você escreve tudo e clica no botão enviar, só então os dados são transmitidos. Acontece que tanto a página que você leu como a pergunta que você enviou são pequenos. Tem poucos dados e são transmitidos/recebidos rapidamente. A internet volta a ficar ociosa.

Justamente por causa do caráter de uso intermitente da internet que as pessoas fazem, permite-se que o provedor venda MAIS do que COMPROU. Enquanto você está lendo a sua mensagem, outro usuário do provedor está baixando de fato uma página.

Bom, isso acontecia muito antigamente quando a internet era basicamente só texto. Por causa dessa característica, era comum o provedor vender algo em torno de 50 a 100 vezes mais do que comprou. E o curioso é que ninguém percebia lentidão alguma.

Aí o tempo passa, o tempo voa, a internet vai se sofisticando e passa a trafegar imagens (opa, é muito mais dados), som (mais dados ainda) e vídeo (aí laskou de vez porque é dado pra caramba). Ahá ! Com o advento da multimídia a demanda de transmissão de dados aumenta muito.

Para assistir um video na internet, no youtube ou netflix, quando você dá play, o vídeo tem que ser transmitido em alta velocidade e em grande quantidade de dados. O usuário de internet fica sem fazer nada enquanto os dados são transmitidos. O mesmo acontece quando se vai fazer um download (ou upload) de um arquivo, de um jogo, de um programa. São muitos dados transmitidos. O mesmo acontece com jogos online em que os comandos do jogador e as modificações no campo de jogo são transmitidas/recebidas continuamente.

Aí os provedores que colocavam muita água no leite não conseguem manter a velocidade percebida.

Voltando ao exemplo de tartaruga, que vendeu 2000 megabits (para 200 clientes) apesar de ter comprado apenas 1000 megabits de coelho.

Se todos os 200 clientes de tartaruga decidirem acessar a internet ao mesmo tempo então os 1000 megabits que ele compra de coelho terão que ser divididos entre os 200. Isso significa que 1000/200 = 5 megabits ! Epa !! que história essa ? Os clientes de tartaruga estão pagando por 10 megabits  e só estão recebendo 5, metade disso !! AHá !!! Aí está a água no leite.

Como estatisticamente a probabilidade de TODOS os 200 clientes de tartaruga estarem em casa ao mesmo tempo e todos fazendo download ao mesmo tempo é praticamente nula, não se percebe problema. Porém, se todo mundo começar a usar … aí a rede fica lenta. Por isso que existem horários em que a internet é mais lenta e em outros horários a internet é mais rápida.

Para tornar mais cruel esse lance da água no leite, a ANATEL no Brasil em 2018 permite que a velocidade real disponibilizada para os cliente seja apenas 10% da velocidade nominal contratada. Isso significa que se você paga por 50 megabits, você só pode exibir um décimo dessa velocidade, 5 megabits. Em teoria os provedores podem vender 10 vezes mais a sua banda nominal. Na verdade eles vendem muuuito mais que isso e aí acontecem as oscilações de qualidade entre um provedor e outro.

Então porque a escolha do provedor pode afetar a velocidade da internet ?
Pense bem, se tartaruga compra 1000 megabits e vende para 200 clientes ele vai ter uma velocidade percebida melhor do que outro provedor chamado LentaNet que compra os mesmos 1000 megabits mas vende para 600 clientes.

Agora pense bem, da mesma forma que tartaruga e LentaNet compram de coelho, coelho compra de um provedor MAIOR ainda um enlace de 10.000 megabits para vender para um monte de tartaruga’s e LentaNet’s, portanto o problema da água do leite continua nessa escalada para cima. O que quero dizer é que você pode ser cliente de um provedor que é cliente de um provedor que é cliente de outro provedor que é cliente de outro provedor …. e cada um deles vai ter a sua velocidade e a velocidade final que você vai perceber é uma mistura das velocidades derivadas de cada um desses enlaces.

Outro aspecto interessante é o da interconexão.

Suponha que a OutraNet seja um provedor na mesma cidade que tartaruga e LentaNet. Suponha que OutraNet está ligando a um provedor diferente de coelho. Vamos chamá-lo de ChitaraNet. O mesmo esquema, ele compra de um provedor maior que nem tartaruga faz com coelho.

Agora imagine que na rede de tartaruga tem um servidor de jogos muito legal, com uma turma boa e animada. Os usuários de OutraNet jogam muito nesse servidor. A rede de OutraNet tem que dar a volta ao mundo para sair pela ChitaraNet, ir até o provedor de ChitaraNet passar não sei por onde e em algum momento entrar na rede de coelho e dentro da rede de coelho chegar a tartaruga onde está o servidor de jogos.

O administrador de OutraNet percebe então que esses usuários do jogo estão ocupando a saída para a internet apenas para se ligarem a um servidor que está do outro lado da cidade. Esse administrador é esperto e liga para o administrador de tartaruga e propõe o seguinte : “Olha, tenho muitos usuários que acessam seu servidor. Tanto eu como você estamos pagando caro para nosso provedores para essa galera jogar. Que tal se a gente ligasse nossas redes diretamente entre si, sem intermediários ? Os jogos ficariam mais rápido e a gente não ocuparia nossa saída para a internet”. Tanto para tartaruga como para OutraNet é interessante “trocar tráfego” entre si já que existe um volume de tráfego grande. Dependendo do volume pode sair mais barato ligar direto. Além disso, um pode usar a saída do outro para internet em caso de pane no provedor. Isso é o que se chama de interconexão.  Eles concordam e estabelecem o enlace entre um e outro e dividem a conta. Esse é o princípio da “teia” da internet.

Então, se ao tentar acessar um servidor na internet, onde quer que seja, pode ser um servidor de web, de vídeo, de áudio, de email, de arquivos, de jogos, seja o que for … pode acontecer de ter mais de um caminho para chegar a esse servidor. Quanto menor for o caminho, mais rápido será o acesso.

Isso significa que a velocidade de fato muda de um provedor para outro mas dependendo do que você vai acessar, pode ser que o provedor que é lento para todo mundo seja suficientemente rápido para você.

Os provedores de acesso promovem a utilização da sua própria rede para diminuir o uso da saída para a  internet que é cara. Por isso os provedores locais criam seus próprios servidores locais de jogos para que os usuários não esgotem sua saída para internet.

 

A comoditização dos sistemas de gestão empresarial.

Nos últimos 25 anos, recursos computacionais antes acessíveis apenas a grandes corporações se tornaram mais baratos e empresas de todos os tamanhos puderam implantar sistemas que trouxeram ganhos enormes de produtividade nos processos administrativos, operacionais e gerenciais das empresas. Para atender as demandas de gestão, diversos fabricantes de software criaram os sistemas de gestão e planejamento empresarial, os famosos ERP’s (enterprise resource planning).

A disputa acirrada pelo mercado de ERP’s fez com que os fabricantes de software buscassem atender os mais variados aspectos da gestão empresarial, adicionando funcionalidades numa disputa em que os maiores beneficiados foram as empresas. Hoje os ERPs possuem mais funções e são utilizados por cada vez mais departamentos dentro da empresa típica. Finanças, logística, vendas, controladoria, recursos humanos, marketing, produção industrial, relacionamento com cliente e até a presença da empresa nas redes sociais já são funcionalidades comuns encontradas nos principais ERP’s do mercado.

Mesmo com a redução de custos mencionada acima os ERP’s ainda são caros. Essa abundancia de funcionalidades é fruto de um fenômeno chamado de “evolução convergente”. Qualquer diferencial funcional que um ERP tem sobre outro é rapidamente copiado e implementado pelos concorrentes. O diferencial competitivo dos fabricantes de ERP ainda é fortemente baseado na qualidade de atendimento pós-venda, nos serviços de valor agregado após a instalação e ativação do ERP. Num mercado cada vez mais exigente, esta qualidade de atendimento deixa de ser um diferencial para ser um pré-requisito básico para permanecer no mercado. Com a evolução convergente e a adoção de metodologias de atendimento, a diferenciação competitiva passa a ser o preço da solução, uma característica das commodities. Por isso que os ERP’s tendem hoje a comoditização.

Se os ERP’s estão cada vez mais equivalentes em termos funcionais, ao mesmo tempo boas práticas de gestão são adotadas pelas empresas de forma mais profissional. Isso também leva a uma convergência de padrões de funcionamento operacional entre empresas do mesmo segmento. Um hospital vai ter processos da área financeira/contábil muito parecidos com os processos de outros hospitais. A forte regulamentação de alguns segmentos impõem práticas idênticas a empresas diferentes. Um exemplo é o sistema de SPED fiscal e contábil que praticamente impõem as empresas a adoção de planos de contas contábeis virtualmente idênticos em sua estrutura, diferenciando-se apenas nos níveis mais analíticos, se tanto. Tudo isso contribui para que os processos das empresas fiquem ainda mais parecidos entre si.

Somando-se assim a padronização dos processos e a oferta muito parecida dos ERP’s, o problema está posto: Como se diferenciar num mar de commodities de sistemas e de “boas práticas” de gestão?

Para tirar o melhor proveito da redução de custos que a comoditização dos sistemas de gestão proporciona é preciso preservar alguma forma para promover o diferencial competitivo. O ganho da redução de custo com o aumento da produtividade agora é um lugar comum. O diferencial competitivo virá da capacidade de atender o mercado de forma mais ágil e mais peculiar. A “pessoalização” (neologismo proposital) do atendimento ao cliente já é uma realidade quando se vê o relacionamento 1 a 1 que as redes sociais proporcionam entre as empresas e seus clientes consumidores. Isso não está completamente resolvido, como se pode ver no espetáculo de sucessos e fracassos de interações entre empresas e clientes na teia complicada das redes sociais. Uma falha num atendimento a um cliente em particular pode se tornar um vexame de repercussão mundial se o vídeo do mau atendimento se tornar viral. Ao mesmo tempo, um atendimento especial e diferenciado a um cliente pode ser alvo de elogios nos Facebooks da vida (vide o caso da assistência técnica de Iphone em São Paulo).

As estratégias para diferenciação no mercado precisam se apoiar nos mesmos princípios de integração e redução de custos. É preciso diferenciar e ao mesmo tempo integrar os processos, principalmente no relacionamento da empresa com clientes e fornecedores/parceiros e também é preciso ter essa integração garantida nas inovações dos processos internos, interdepartamentais. Inovações criadas num departamento devem ser integradas aos sistemas e controles corporativos de forma econômica, eficaz, rápida e principalmente barata.

A tecnologia de informação pode ser um instrumento importante para se obter o melhor dos dois mundos: a redução do custo aliada da maior eficácia/eficiência das práticas consagradas e a capacidade de inovar, de fazer diferente, agregando valor consistente de forma inequívoca a empresa e aos personagens envolvidos. Ora, se o recurso é commodity, tanto melhor. Vamos compra-lo mais barato. Ao mesmo tempo, vamos buscar o diferencial.

Para se obter tal combinação paradoxal de padronização e diferenciação, os requisitos que são impostos pelo mercado à empresa (agilidade, leveza, rapidez, economia, diferenciação) devem ser repassados às soluções de TI da empresa. Considerando que o ERP deixa de ser um diferencial (hoje é mais uma necessidade), não será através dele que a diferenciação será obtida. Outra ferramenta deve ser adicionada ao portfólio da área de TI mantendo a rapidez, o custo baixo e promovendo e preservando as integrações. Isso pouco combina com ERP. O mercado maduro e aculturado já sabe que ERP é caro, demora para ser implantado, requer um esforço enorme para ser instalado e move-se de forma lenta no quesito de inovação.

São notórios os casos de implementações de ERP com muita customização que atingem custo elevadíssimo, demoram tanto que quando são concluídas o cenário que a empresa enfrenta já mudou completamente e a customização nasce obsoleta após consumir recursos críticos que poderiam ter sido melhor utilizados em outro projeto. As tentativas de fazer o elefante dançar um novo ritmo resultam em uma sala de cristais quebrados e oportunidades perdidas. Os poucos que sobreviveram a customização grande incorrem em custos ainda maiores de propriedade. Não é fácil atualizar o ERP customizado para uma versão nova aderente a uma nova regulamentação ou legislação. Análises de impacto para migração custam caro, demoram e só pioram o cenário.

O que o mercado consumidor de ferramentas de gestão precisa é uma ferramenta que se acople ao ERP sem ferir suas regras de controladoria e os seus processos e que ao mesmo tempo seja leve e ágil para proporcionar uma capacidade de integrar mais processos novos aos processos antigos, sem mexer no núcleo caro do ERP. Novamente a tecnologia vem ao socorro. Os fabricantes de ERP já dispõem de tomadas para que softwares de terceiros sejam plugados a solução corporativa. O que falta é criar essas aplicações satélites ao ERP de forma rápida, barata e moderna. Os requisitos do mercado são características dessa nova ferramenta que deve funcionar na grande rede, integrar-se com os sistemas corporativos legados desenvolvidos nas mais diversas tecnologias (umas atuais, outras nem tanto), ser capaz de funcionar em dispositivos móveis, ter uma interface completamente voltada ao usuário, ter inteligência para realizar processamentos preliminares antes que os dados sejam definitivamente introduzidos no ERP. Essa ferramenta deve ter performance escalável que a permita atender a um grande número de usuários internos na corporação e na rede mundial com baixo custo de propriedade. Além disso, tal ferramenta deve ser versátil para poder atender os diferentes aspectos do funcionamento moderno com dados multimídia (vídeo, áudio, imagem, etc), georreferenciamento, integração com as redes sociais. Tal ferramenta deve ser capaz de reaproveitar o conhecimento das novas regras de negócio e reutilizá-las de forma integrada.

A Procenge, como fabricante de ERP de alcance nacional, enfrenta esse desafio através da sua linha de produtos Innfluit que vem atender justamente essa necessidade de adequação rápida aos novos cenários que seus clientes tem que encarar. O Innfluit permite que novas aplicações específicas para cada cliente sejam desenvolvidas rapidamente e de forma integrada, com custo muito baixo e valor agregado alto. Processos novos que exigiriam um esforço grande para serem integrados ao ERP corporativo agora podem ser implementados rapidamente com garantida de qualidade e de usabilidade com reflexo instantâneo na produtividade da força de trabalho da empresa cliente. O Innfluit é capaz de se integrar aos principais ERP’s do mercado nacional com esforço muito pequeno.

Para o gestor corporativo, saber que pode contar com a área de TI para ser uma gente importante nas ações estratégicas da empresa é um alívio. Se antes a preocupação ao tomar uma decisão estratégica era se o ERP iria arrastar a empresa, a preocupação agora passa a ser se o gestor de TI compartilha da visão estratégica, se tem conhecimento dos negócios e processos internos da corporação e se tal gestor de TI está constantemente monitorando tais processos visando otimizá-los com mais forte integração, com modernização das interfaces dos sistemas legados e até mesmo implementação de um processo automatizado que antes era feito manualmente ou com o auxílio das onipresentes planilhas em Excel. O papel do gestor de TI deixa de ser do defensor do sistema aplicativo e sim um promotor de integração de processos com uma visão convergente com a estratégia da empresa. O gestor de TI deixa de ser um portador de más notícias e passa a ser um catalizador de novos projetos que trarão a diferenciação e aumento da competividade da organização.

Sistemas gerenciais

O Sistema ERP – Pirâmide é um sistema de informações empresariais totalmente integrado com ênfase na apuração dos resultados financeiros das mais diversas atividades empresariais. A diferença fundamental entre um sistema ERP e um sistema específico de uma área é que o ERP foca em resultados, ou seja, quanto custou/rendeu uma atividade ?

Numa empresa industrial, aparentemente a ênfase é no controle de produção. Na verdade, a produção é apenas um meio para que a empresa chegue ao resultado esperado : Lucro. Para se apurar o resultado de uma atividade é preciso uma abordagem multidisciplinar que envolve a atividade meio em si, controles financeiros, provisionamentos contábeis e facilidades de demonstraçào de resultados.

Tomemos como exemplo uma empresa fictícia que fabrica refrigerantes. A área industrial, a fábrica, dessa empresa precisará de um sistema que apure quantas garrafas foram fabricadas, quantas tampinhas foram utilizadas, quantos litros de água, quantos quilos de açucar/adoçante, quanto de xarope, e quanto de cada componente foi efetivamente gasto. Essa apuração do desempenho fabril determinará o quão eficiente é a fábrica. O gerente/diretor industrial utilizará os sistema de controle fabril para planejar o que vai ser feito em que máquina por qual operador e quanto de matéria prima teoricamente será necessário para fabricar a quantidade planejada de garrafas de refrigerante.

Acontece que a atividade fabril de uma fábrica não é a única coisa que afeta o negócio de refrigerantes. Além de fabricar é preciso promover, vender, distribuir, entregar, cobrar, receber o dinheiro e administrar todo esse ciclo repetitivamente. É preciso conquistar novos mercados, é preciso neutralizar a concorrência, é preciso apurar o resultado de cada uma das etapas em particular e do processo todo em geral para que avalie quais açòes precisam corrigidas, implementadas, melhoradas, modificadas, seja em função de uma adequaçào ao mercado mutante, seja por força de orgão regulamentador, seja um fator interno ou externo que impele a mudança.

O sistema integrado deve ser capaz de capturar a informação fundamental que avalia o desempenho de uma atividade econômica: o resultado em dinheiro, o lucro ou prejuízo. Essa apuração é complexa e detalhada pois deve abranger praticamente todas as atividades dentro de uma empresa. As atividades diretamente relacionadas ao negócio/atividade (no exemplo venda e fabricaçào de refrigerantes) como as atividades indiretas (administrar pessoal, manter as instalações físicas, recrutar pessoas, administrar os recursos financeiros, calcular impostos, cumprir atividades burocráticas demandadas pelos orgãos reguladores, apurar os resultados em si).

Essa complexidade felizmente foi brilhantemente mapeada através da invenção de um monge franciscano chamado Luca Pacioli queinventou um negócio genial chamado “contabilidade”. Isso mesmo. A contabilidade, tào incompreendida, na verdade é o único instrumento lógico/matemático disponível há quase 6 séculos que é realmente capaz de responder a seguinte pergunta “Quanto dinheiro estou ganhando nessa atividade ?”

Essa é a pergunta que interessa para o empresário e para os acionistas de uma empresa privada. Com algumas variantes, essa pergunta é válida para qualquer atividade que envolva recursos econômicos, seja ela privada visando lucro, privada sem fins lucrativos ou pública. Embora atividades sem fins lucrativos, como a área pública em geral e alguns segmentos privados específicos, não tenham ênfase em “lucro” é importante para tais atividades saber quanto “custou” a atividade. Por exemplo, uma escola pública não dá lucro no entanto é importantíssimo que seja avaliado o custo (quanto foi pago) versus o benefício (quantas pessoas foram treinadas/educadas e qual a qualidade de tal educação). Infelizmente essa avaliação econômica da atividade pública nào é prática comum em nossa sociedade.

Entre os benefícios auferidos por um sistema integrado a empresa terá :

  • Redução geral do custo de administraçào da empresa. Administrar uma empresa significa agregar custos. Quanto menos recursos forem  necessários para tocar uma empresa, menos custo será subtraido do seu resultado tornando-a mais eficiente. Lembre-se da diferença entre agregar custo e agregar valor. Custo é o que a empresa paga, é abatido de sua margem de lucro. Valor é o que o cliente da empresa paga, aumenta a margem de lucro.
  • Maior controle da empresa permitindo saber quais os pontos críticos da operação que precisam ser melhorados e/ou modificados.Novamente o benefício é a redução de custos.
  • Identificação de oportunidades baseada no registro das operações. É possível que a empresa usuária do sistema de gestão  localize oportunidades de venda para clientes que não compram a certo tempo, ou que compram um produto mas não compram outro por desconhecimento ou falha na oferta. Essa situação tem impacto direto no aumento da receita da empresa.

Para adotar um sistema de gestão integrado é preciso que a empresa assuma uma postura de empreendimento e resolução de problemas com foco no aumento da receita e redução da despesa. É de fundamental  importância que a alta gestão da empresa, leia-se donos, acionistas majoritários, executivos de alto nível, assumam o projeto de implantaçào, prestigiem o sistema, adotem os relatórios produzidos pelo sistema como ferramentas para apoio a tomada de decisões. Um sistema integrado envolve fluxos operacionais que passam de um departamento para outro. Com frequência, departamentos dentro de uma empresa são como mini-castelinhos onde manda um reizinho. O chefe da área financeira manda em sua área e não aceita ingerência ou observações oriundos da área fabril ou da área de contabilidade, por exemplo. Essa resistência a integração dos fluxos processuais causada pela departamentalização da empresa precisa ser vencida. Isso significa que alguém com poder interdepartamental deve “bancar” o projeto, ou seja, determinar que o bem comum da empresa deve prevalecer sobre interesses locais dos departamentos. Em empresas familiares essa departamentalização é particularmente crítica pois supostamente os “parentes” teriam o mesmo nível de poder.

Em termos de infraestrutura para adoção do sistema, a verdade é que o custo de infraestrutura tem caído sistematicamente em função da redução dos preços de hardware e software básico. Um bom servidor que chegou a custar dezenas de milhares de reais hoje em dia pode ser comprado por menos de 5 mil reais, oferece performance superior e custo de manutenção e suporte mais baixo sem falar que a garantia frequentemente é extendida. O mesmo pode ser dito dos equipamentos de rede local, fundamentais para integração interdepartamental.

Hardware, software e serviços de infraestrutura de TI hoje beiram as raias da comoditização, ou seja, preços baixos, qualidade comparável entre vários fornecedores/fabricantes. Outro aspecto que auxilia muito é a padronizaçào de protocolos que permite a interoperabilidade de equipamentos de fabricantes distintos, estimulando a competição e portanto trazendo redução de preços. Com frequência, o custo de infraestrutura num projeto de implantação de um sistema nào é relevante diante do total do orçamento. Gasta-se muito mais dinheiro com a condução do processo de implantação e adequação do sistema aos processos de negócio da empresa do que com hardware.

O treinamento das pessoas que irão utiizar o sistema deve ser feito em conformidade com o avançado da implantaçào/ativação dos módulos contratados. É de fundamental importância que o usuário seja devidamente treinado antes de passar a utilizar o sistema em produção, na vida real. No entanto, esse treinamento não pode ser feito muito antes da ativação, para que a absorção dos conceitos introduzidos ao treinando sejam diluídos pelo tempo sem prática no sistema. A idéia é treinar e logo em seguida usar, para fixar o conhecimento. Por outro lado o treinamento não deve ser feito muito “em cima da hora” pois correria o risco de não abordar todos os aspectos relevantes para operação proficiente do sistema.

A estrutura a ser adotada para implantação do sistema deve ser sugerida e prestigiada pela alta direção da empresa e normalmente é baseada num comitê interdepartamental chefiado por um gerente de projeto com poder de vida e morte sobre todos os envolvidos no projeto, sejam chefes, supervisores ou funcionários. A idéia é que aspectos interdepartamentais sejam discutidos em ambiente de fórum no comitê porém o gerente do projeto terá postura proativa para fazer as coisas acontecerem. Embora os comitês sejam instrumento bastante útil para que opiniões diferentes e situações de mútiplos departamentos sejam discutidas em debates, eles pecam por tornarem o processo decisório mais demorado. Por isso que essa estrutura mista de colegiado democrático e gestão autocrática traz o melhor dos dois mundos.

Superado o processo de implantaçào, é preciso manter o sistema funcionando. Os processos da empresa precisam se adequar as novas realidades e desafios que ela enfrenta. A empresa enfrenta mudanças impulsionadas pelo mercado, pelos concorrentes, pelos fornecedores e até pelo governo com a forte regulamentação. Outras mudanças precisam ser impulsionadas pela própria gestão da empresa. De um modo geral, quando a própria gestão promove/conduz a mudança ela obtém mais sucesso. Quando as mudanças são impelidas por fatores externos na verdade e empresa está “reagindo” ao novo cenário do mercado, ou seja, a mudança está sendo promovida/conduzida por um concorrente. A disciplina de melhoria contínua deve envolver o controller da empresa e a alta gestão. Processos precisam ser constantemente avaliados para que desempenhos possam ser melhorados.