Quando a maré encher

Avenida Agamemon Magalhães.
Onde os vários Recife’s se encontram. Zona norte, zona sul, centro, subúrbio, litoral interior, rico, pobre, miserável. É aqui que os Recifes se prestam contas. O contato não é fácil porque a desigualdade é muito grande e essa tensão em alguns momentos precisa ser aliviada.
Acidentes de carro que caem no canal, assaltos, pedintes, pobreza, ostenção, abuso social, tudo que as faunas são capazes de produzir se manifesta aqui na Avenida mais importante do Recife. Não existe nada mais cara do Recife do que a Agamenon. A riqueza dos grandes prédios comerciais, a pobreza dos meninos tomando banho no canal quando a maré enche. Quando chove alaga, quando faz sol é um inferno, quando a cidade vai embora durante o feriadão é um deserto. Quando há manifestação, só importa, só faz diferença se a Agamenon parar.
E ela para, todos os dias de semana, por causa do engarrafamento.
Quando eu era criança sempre me admirava com a Agamenon Magalhães e suas faixas de rodagem largas, seus canteiros, seus viadutos, o canal Derby/Tacaruna.
Lembro perfeitamente da primeira vez que vi meninos saltando das pontezinhas do Parque Amorim para divertidamente mergulharem no canal. No canal!! Tudo que tem de mais pútrido e fétido, tudo que tem de doente e contagioso, tudo está lá nesse canal. Meus pais, médicos, classe média, alertavam para os perigos do canal e sua água podre. Tão insalubre que até caminhar nas calçadas (inviáveis) da Agamenon é um risco. E dá para sentir esse risco no fedor que emana e sufoca.
Não conseguia conceber que crianças da minha idade se divertissem e aparentassem serem tão felizes enquanto brincavam, pulavam, nadavam despreocupadamente no canal.
Em outra situação, nos cruzamentos em que vendedores ambulantes oferecem de tudo, crianças miseráveis pedem. Pedem reconhecimento, pedem serem tratadas como humanos. Mas não sabem como pedir isso. Então pedem dinheiro, comida. Para eles ser humano é ter o que comer.
Um menino de rua se aproxima do carro a minha frente, com a janela do motorista aberta, uma senhora ansiosa ao volante espera o sinal abrir. O menino pede um dinheiro. A mulher o ignora, “Sai pra lá menino! Me deixa em paz”. Ele a olha com uma expressão de curiosidade e desprezo. Meio que dizendo “Como é que ela pode ignorar tão solenemente a minha necessidade?”. O menino não liga mais. Depois de milhares de “nãos”, de “sai pra lá”, de ser absolutamente ignorado, o menino já tem uma pele áspera imune a essa demonstração de total falta de empatia. Ele não liga mais. Ele observa como um animal num zoológico curioso mas melancólico observa os humanos “livres”.
De repente o bote.
O menino toma da boca da mulher o cigarro acesso. Por isso a janela aberta. Agora entendi.
O espanto na cara da mulher é genuíno, é assustador. Ela entre num surto “Que absurdo, que é isso?” e continua o escândalo gritando aos brados que está sendo assaltada, que façam alguma coisa, que isso não pode acontecer, que é o fim do mundo.
O menino não liga mais. Entre uma baforada de cigarro e outra, o menino só observa a mulher histérica como um Humphrey Bogart em miniatura de uns 8(?), talvez 9 anos ? Sempre difícil estimar a idade de crianças visivelmente subnutridas.
A mulher engata marcha, buzina. O carro da frente nem se mexe. Ela quer sair dali o mais rápido possível. O choque entre os Recifes é inconveniente, desagrada, é feio, incomoda, envelhece, machuca. Para evitar combater a desigualdade, qualquer desculpa serve.

Os artistas, os poetas, os pintores, os músicos, conseguem usar esse material. Eles traduzem isso. A prova de débil mental. Não tem quem não entenda.
Não tem quem não sinta isso.
A maioria ignora

Anúncios

A usabilidade de computadores

Durante a década de 80 o Brasil começou a assistir a adoção de microcomputadores nos ambientes profissionais. Os microcomputadores entraram meio que pela janela no mercado brasileiro pois graças a “Lei de Informática” imposta pela ditadura militar, era proibido importar computadores em geral e microcomputadores em específico. A ideia era estimular a produção local de computadores. Apesar da boa intenção, isso acabou foi criando um cartel que apoiava politicamente a ditadura em troca das benesses. Mas isso é outra história. O fato é que os microcomputadores “fabricados” aqui no Brasil eram defasados tecnologicamente, eram caros, mas eram uma alternativa mais viável do que os caríssimos mainframes dos fabricantes estabelecidos: IBM, Digital, Burroughs (futura Unisys), ABC Bull, Honeywell .. etc.

Assim como o hardware era limitado, a oferta de software aplicativo era muito pobre. Sem software o computador faz coisa nenhuma. Então o que fazer ? Treinar os profissionais a utilizarem os computadores para aproveitar o potencial desses equipamentos. Muitos profissionais de mainframe acreditavam que computadores precisam ser programados para se tornarem úteis e danaram-se a treinar usuários leigos em programação. Grande erro. Embora programação não seja uma ciência inacessível, a produtividade de um funcionário regular pode ser enormemente aumentada sem que ele precise saber programar. A ideia é ensinar os funcionários, agora chamados de “usuários” a usar o computador, não a programá-los.

No orgão público em que eu trabalhava nos meados da década de 80, os microcomputadores invadiram a repartição. Entre motivos escusos e justos, o serviço público foi as compras de microcomputadores e agora só precisava achar um problema para essa solução. O que fazer com os micros? A abordagem anacrônica de ensinar pessoas “normais” a programar foi adotada. Eu era estudante de ciência da computação e vários chefes diretos/indiretos meus eram meus professores da faculdade. Um deles insistia em ensinar BASIC para os usuários. Apesar da farra de compras, microcomputadores eram caros e raros e as turmas de 40 alunos funcionários da repartição tinham que compartilhar 2 míseros computadores PC clone de 16 bits, 640Kbytes de RAM e HD de uns 10 megabytes (UAU!) nas aulas práticas. Como eu era um aluno do chefe, ele me elegeu monitor das suas aulas práticas que consistia em fazer um programa que convertia temperaturas em graus Fahrenheit para graus Celsius. Imagina, uma coisa útil dessas, que nenhum ser humano hoje em dia consegue viver sem, né? Todo dia precisamos converter temperatura de F para C, né mesmo ? Ou não? Ah bom…

A atividade era um tédio enorme. Enquanto dois alunos digitavam o programa BASIC, erravam a digitação, se frustravam quando o programa não funcionava por qualquer erro de lógica ou sintaxe e quando se frustravam mais ainda quando viam o produto do programa que na hora H era absolutamente inútil, sejamos francos. Depois de algumas aulas soporíferas decidi trocar o programa em BASIC por uma planilha em Lotus 1-2-3 (um precursor do Excel) que fazia um gráfico bacana com o biorritmo da pessoa baseado na data de nascimento. Pura cascata com credibilidade igual ou inferior a astrologia ou qualquer outra pseudociência dessas. Mas fazia um sucesso! A impressorinha matricial passava a aula toda gemendo imprimindo os gráficos de biorritmo dos alunos. Como tínhamos 2 computadores, eu tomava conta de metade da turma, meu professor/chefe ficava com a outra metade. O resultado era que dos 40 alunos, uns 3 ou 4 (sempre tem uns caxias) ficavam lá batalhando com o professor para fazer o programa em BASIC. O resto ficava no grupo do biorritmo, tirando gráfico para si mesmo, para marido, esposa, filho. Um sucesso.

Confesso que foi um pouco ousado da minha parte mudar o programa do curso sem pedir a benção ao “professor”. O fato é que o conceito de utilização de planilhas eletrônicas era avançado demais para os já dinossauros àquela época (estamos falando dos anos 80) que insistiam que para usar bem um computador tem que saber programá-lo.

Revendo na marra esse conceito, as próximas turmas de “Introdução a Microcomputação” deixaram de ser teóricas e com ênfase em programação e passaram a ser muito pragmáticas e utilizando planilha eletrônica (Lotus 1-2-3), processador de texto (Wordstar) e banco de dados (dBASE III plus). Hoje em dia seria algo semelhante a um curso de Excel, Word e Access. Não havia um produto bom para o papel que hoje é do Powerpoint.

No órgão governamental em que eu trabalhava, as planilhas eletrônicas eram uma benção para os profissionais de planejamento urbano, planejamento global, planejamento setorial. As demandas que estavam enfileiradas há anos no CPD (centro de processamento de dados) podiam ser atendidas rapidamente com um punhado de planilhas. Mais do que isso, o próprio usuário poderia bolar a sua solução aproveitando de sua própria intimidade com o assunto, muito maior do que a de qualquer analista de sistemas que fosse designado a fazer um sistema “convencional” para cuidar do assunto no mainframe.

Como toda novidade, a organização partiu para adoção ainda mais intensiva de microcomputadores. Sem o devido planejamento, obviamente, isso trouxe sérios problemas. O mais comum naquela época era superestimar a capacidade de processamento e/ou armazenamento de dados dos microcomputadores (de 640k de RAM, 10 mega de disco, processador de 16 bits e … 4mhz de velocidade, sentiu o drama?). Para complicar, redes locais não eram viáveis tampouco disponíveis no Brasil. O máximo que se podia fazer era uma emulação muito porca de um terminal IBM 3278 utilizando um aplicativo desenvolvido em CICS, ou CSP no mainframe e um emulador de terminal no microcomputador. Ah… esqueci … para fazer isso o bendito do micro tinha que ter a famigerada “Placa Irma” que era um gizmo que conectava fisicamente o microcomputador ao mainframe via cabo coaxial se passando por um terminal. Detalhe, essa placa  era proibida de ser importada então eram “clonadas” descaradamente pelos fabricantes locais. Não precisa dizer que quando tinha um problema de compatibilidade ou necessidade de suporte técnico, a IBM lavava  completamente as mãos. A IBM não tinha interesse algum em fomentar um mercado de microcomputadores do qual ela estava proibida por lei de participar.

Mais do que a questão tecnológica que popularizou e disseminou o uso de computadores (micros) nas organizações, a demanda de informação e de consumo da informação era o driver latente para tal disseminação. A queda do preço dos equipamentos e o surgimento de softwares aplicativos melhores apenas atendeu a demanda que já existia.

Hoje esse fenômeno acontece num ciclo de velocidade mais rápida. Se de um lado os microcomputadores ocuparam o espaço profissional, os aplicativos móveis nos smartphones permeiam a vida das pessoas tanto no profissional como no pessoal. A usabilidade aí é o que propicia o atendimento das demandas de informação. O que impulsiona é essa necessidade. A usabilidade é o catalisador.

 

 

Oracle (dona do Java), avisa: O uso gratuito do Java subiu no telhado.

Como a maioria deve saber, a linguagem de programação Java surgiu dentro da Sun em meados da década de 90 e prometia ser a linguagem universal para programar desde console de video-game até aspirador de pó. A vida real tinha outros planos para essa linguagem fabulosa que virou a principal linguagem para desenvolvimento de sistemas aplicativos nas corporações. Estima-se que 30% de tudo que é de software aplicativo novo no mundo dos negócios é escrito em Java, deixando o resto para ser escrito em todas as outras linguagens sendo que nenhuma outra chega a 10%. Ou seja, Java é um sucesso.

Mesmo sendo propriedade da Sun, Java parecia ao mundo como se fora de domínio público, uma linguagem “sem dono”, ao contrário do Visual Basic, por exemplo, que é da Microsoft uuuuuu, vade retro satanás! Ter que pagar por uma linguagem ?? Nem pensar. A Microsoft era demonizada e o Java era louvado.

O tempo passa, o tempo voa e a … Oracle .. quem diria … engoliu (comprou) a Sun, com casca e tudo. Detalhe, bancos de dados Oracle já podiam ser programados nativamente em Java antes da aquisição. Foi o maior auê na época. A Oracle comprando um fabricante de hardware ? Well, faz sentido. Agora a Oracle pode fornecer um pacote de superservidores de banco de dados envolvendo software e hardware de primeira. Mas será que era por isso exatamente que a Oracle estava disposta a pagar 7 bilhões de dólares pela Sun? Por um fabricante de hardware ?? Será que foi isso gente? Eu acho que não. Oracle estava de olho era no Java, que há 10 anos em 2008 já despontava como a linguagem corporativa por excelência. O auê só aumentava. Qual vai ser o futuro de Java ? Vamos poder continuar a fazer programas em Java e vender nossos programas ? E o software livre feito em Java ? Vai deixar de ser livre ?

A Oracle apressou-se em acalmar a indústria de software e jurou de pés juntos que tudo ia continuar como antes e que a Oracle iria dar ainda mais apoio e investir ainda mais dinheiro no desenvolvimento da linguagem Java. Os gritos de “linguagem com dono não serve para o domínio público” voltaram-se contra a linguagem Java. A Oracle pratica políticas de licenciamento tão ou mais leoninas do que a Microsoft. E agora ?? Os debates nos fóruns pareciam embates religiosos. Alguns defendendo Java, outros avisando para pularem fora pois era só uma questão de tempo para a Oracle começar a querer organizar essa suruba que faziam (fazem) com a linguagem DELA. Apesar do bafafá, tudo continuou como dantes no Quartel de Abrantes. Apesar da invasão napoleônica (alguém duvida que a Oracle, assim como Pinky e Cérebro, quer dominar o mundo?) feita pela Oracle a terra do Java, de fato, pouca coisa mudou. Tecnicamente, mudou bastante e para melhor. Java hoje é ainda mais rápida e poderosa, as ferramentas de desenvolvimento estão maduras, os frameworks estão maduros e existe um fw adequado para cada coisa possível de se imaginar de ser feito com Java. A galera javiana se acalmou, a vida seguiu …. o tempo passou. O tempo passa, o tempo voa e a poupança Bamerindus … não existe mais. Só os mais velhos vão entender. O tempo passou e eis que …

A Oracle manda um aviso. Vejam aqui

O gato subiu no telhado. Os termos do aviso são ..”estranhos”, digamos assim. Explicitamente o que se lê é que “se você é um CONSUMIDOR que usa Java para uso individual ou pessoal, você continuará a ter o mesmo acesso aos updates como você tem hoje em dia pelo menos até o fim de 2020“. Como é que é ??? Que papo é esse de “pelo menos até 2020” ? Pois é pessoal! O suporte “gratuito” pelo jeito subiu no telhado….

E tem mais!

Se você é um DESENVOLVEDOR … a Oracle recomenda que você reveja a sua estratégia de como vai continuar distribuindo o seu software ….

E tem ainda MAIS !!!

Se você é uma empresa/corporação, reveja ainda mais detalhadamente pois vai precisar adquirir uma licença comercial do Java!!!!! Ou seja, além de pagar para o desenvolvedor do software, a empresa vai ter que pagar para a Oracle uma licença para rodar/desenvolver qualquer coisa em Java.

Então, meu caro, …. aquela  brilhante ideia de desenvolver um aplicativo em Java que iria trazer toneladas de dinheiro para você … precisa ser revista pois a Oracle já avisou que vai querer a parte que lhe cabe nessa farra.

 

Uma breve história da Internet

Em meados dos anos 60 pesquisadores conseguiram fazer com que um computador num site conseguisse mandar dados para outro computador em outro site. Observer, era uma ligaçao ponto-a-ponto. Isso por si só já foi um sucesso.

Logo em seguida, os pesquisadores cogitaram interligar outro ponto ! E como manter os 3 ligados ao mesmo tempo  ? O ponto A se liga ao ponto B. O ponto B se liga ao ponto C. Tem como A mandar/receber dados para C ? Essas perguntas ao serem respondidas criou a ideia de rede de computadores.

Naquela época, computador era muito caro e só grandes corporações ou o governo tinham a grana suficiente para ter computadores e operá-los. Não só era caro de comprar como era caro de manter funcionando.

Com o advento da comunicaçao entre computadores, as corporações logo logo partiram para interligar suas sedes remotas. Obviamente, como eram corporaçoes, estabeleceram as suas redes para uso próprio. Eram as redes proprietárias. Cada grande corporação montava a sua. Os fabricantes de computadores viram a grana que tinha aí nesse negócio e criavam protocolos proprietários que “fisgava” as corporaçoes clientes. Uma rede de computadores da IBM dificilmente falava com uma rede de computadores da Burroughs (antigo forte concorrente, hoje Unisys). As redes proprietárias se propagavam nas corporaçoes. A ênfase dessas redes era a velocidade, mesmo que a custo alto, e os fabricantes de equipamentos pensavam que se criassem redes proprietárias, impediriam as corporações clientes de trocarem de fabricante, uma vez a rede estabelecida seria muito dificil trocar de um fabricante para outro.

Já o governo era diferente. As pesquisas patrocinadas pelo governo abrangem várias áreas distintas e várias faculdades, centros de pesquisa, até corporações. Cada uma dessas entidades tinha um computador de um fabricante/modelo diferente. Isso fez com que as redes estabelecidas e/ou patrocinadas pelo governo fossem mais plurais, diversas e por isso tinham que ser capazes de interligar equipamentos de fabricantes diferentes. Os protocolos então eram abertos, ou seja, qualquer um poderia aderir a rede desde que utilizasse o protocolo já conhecido e divulgado. Essa foi a primeira onda da internet. A adesão massiva dos centros de pesquisa, associados a uma universidade, independentes ou associados a corporaçoes. Além das agencias governamentais. Essa internet era “grátis”, digamos assim. Era bancada pelas verbas de pesquisa.

AO mesmo tempo, uma boa parte das pesquisas patrocinadas pelo governo dizia respeito a defesa (pesquisa de armamentos). Em caso de guerra, o governo queria que a rede fosse resiliente. Se um pedaço da rede fosse destruído num ataque nuclear, o resto da rede deveria permanecer funcionando.

Essa rede com essas características se chamava ARPANET e é a “mãe” da internet que conhecemos hoje em dia.

No início a ARPANET só interligava centros de pesquisa e orgãos do governo. Acontece que em várias pesquisas, havia participaçao do setor privado. Grandes corporações tinham que se ligar a essa rede de pesquisa para facilitar os contratos de construçao/desenvolvimento das armas pesquisadas. De repente, as corporações perceberam que estavam ligadas a outras corporações  através da rede e começaram a usá-la para outros propósitos que não o de comunicação direta com os centros de pesquisa.

Imagine que a IBM se liga a um centro de pesquisa para um projeto aí. Agora imagine que Microsoft se ligou a outro centro de pesquisa para um outro projeto. Através da rede a qual estão ligadas, a IBM pode se comunicar com Microsoft, dispensando uma ligação direta IBM-Microsoft. Esse é um exemplo fictício (plausível) com fins didáticos.

A medida que as corporaçoes perceberam isso, começaram rapidamente a se ligar a internet. Sim agora ela já se chama internet. Em pouco tempo, o número de corporações que se ligavam a rede sem que tivesssem algum envolvimento direto com pesquisa se tornou maior e velocidade de crescimento da internet começou a acelerar vertiginosamente.  A segunda onda da internet, a internet  corporativa, estava a plena velocidade. Para acessar essa internet sem estar envolvido em pesquisa … tem que pagar. Surgiu a internet paga. Na época foi a maior polemica.

Na década de 90 inventou-se o acesso discado a internet. Utilizando a tecnologia dos modens analógicos já disseminada entre os entusiastas dos microcomputadores que os usavam nos BBS (assunto interessantíssimo, recomendo) o microcomputadores começaram  a invadir a internet. O usuário comum, o cidadao, o profissional, o estudante, a pessoa física agora pode acessar a internet a partir do seu computador de casa. Esse boom durou até a segunda metade dos anos 2000.

Em 2008 começou a terceira onda da internet. O Mago Steve Jobs lançou o Iphone, o primeiro smartphone realmente viável e capaz de um uso bom de internet. A partir daí, a internet móvel, que até já existia mas era ruim demais, foi impulsionada e essa onda foi a que proporcionou a maior adesao de pessoas a internet. Dificilmente será superada em termos de quantidade absoluta de gente passando a acessar a internet. Se antes precisava de um computador e estar em casa/trabalho/escola, agora basta um celular metido a besta e o usuário pode acessar em qualquer lugar. Na rua, em casa, na casa da namorada/namorado (se bem que pra que né ?).

A quarta onda é a que estamos vivendo agora e é a onda da IoT, Internet of Things. Não basta o cidadão estar ligado a internet o tempo todo. As coisas dele também estarao ligadas. A casa, o carro, os aparelhos eletrodomésticos, os equipamentos do trabalho. A IoT será a onda que vai proporcionar o maior crescimento de hosts na internet embora a maioria absoluta de tais hosts não serão operados diretamente por humanos.

Segundo Raid Lucena-Pipa

O litoral do Nordeste é cheio de atrativos e uma das formas mais interessantes de conhecer tais atrações é fazendo turismo de aventura com motocicleta. Ir de moto a lugares que de outra forma ficariam mais difíceis de chegar.

O Raid Lucena-Pipa é isso. Uma aventura partindo da cidade de Lucena, do outro lado do rio no Pontal de Cabedelo, e seguindo até a praia de Pipa no Rio Grande do Norte.

O grupo dos Tatus Manguetown já tinha feito esse passeio com cerca de 10 motos entre membros e convidados. Todos eram experientes pilotos de off-road e depois de uma noite de farra na casa de Homero em Cabedelo saímos de manhã e chegamos as 15hs em Pipa. Isso foi em setembro de 2016.

Agora em fevereiro de 2018 a missão é levar alguns Amigos Coxinhas.

Convites feitos e entre aceites e desculpas amareladas para não ir o grupo formado ficou com Eu e Lara (F800gs), Eloy e Gabriela(F800gs), Demetrius (Ténéré 250), Laplace(F800gsADV), Rodolfo (F800gs) e Luciano de João Pessoa (F800gs, irmã gêmea da Mítica Black Mamba).

O clima estava  bem chuvoso. Nos últimos dias tinha chovido bastante e a previsão para o fim de semana era de mais chuva. A ideia era partir de Lucena na manhã do Sábado e seguir para Pipa e chegar lá pelas 16hs. O ponto de encontro é a balsa de Cabedelo-Lucena. Luciano que mora em João Pessoa e eu (que vim para Jampa na noite anterior) nos encontraríamos com o resto do grupo que veio de Recife logo cedo.

Apesar da chuva as perspectivas para a trilha eram boas. O percurso é praticamente todo plano e o solo dessa região é muito arenoso. Devemos pegar algumas poças de água mas não vai rolar muita lama pois simplesmente não tem. O solo dessa região é normalmente areia e de vez em quando um barrinho misturado. Areia de praia molhada é até melhor.

Pegamos a balsa as 9hs e começamos a aventura.

Desembarcamos da balsa e Demetrius seguiu liderando a trupe. Fomos em seguida para a Igreja da Guia para tirar as tradicionais fotos. O chão estava bem molhado e sem maiores dificuldades.

 

Abbey Road style. Não percebi mas essa marcha seguia em direção ao cemitério 🙂

Confissões feitas, promessas de se comportar e seguimos em direção as Ruínas de Bonsucesso.

Nessa foto dá para perceber que o tempo estava muito nublado e com chuva intermitente. A trilha promete aventuras.

Ruínas de Bonsucesso ficam numa trilha muito bonita por entre uma floresta em terreno de areia. Muitas poças dágua mas nada de lama ainda.

Nesse trecho já deu para perceber que alguns colegas estabeleceriam alguns latifúndios a partir de compra de terreno. Ou seja, quedas e tombos em profusão. Nada sério mesmo porque a velocidade era muito baixa. Começa o desgaste de energia para levantar as motos F800gs adv repetidas vezes.

Depois das Ruínas, temos que ir a Falésia que dá uma vista magnífica da foz do Rio Miriri, lá embaixo.

Pegamos a trilha novamente agora em direção a Rio Tinto. O rio Mamanguape tem em sua foz uma área de preservação reservada para berçários de bebês de peixe-boi marinho. Não tem ponte sobre o rio a não ser bem no interior próximo a Rio Tinto. Barcos a motor não podem navegar na barra do rio portanto não tem balsa nem jeito seguro de cruzar o rio no litoral para a próxima praia que é Baía da Traição. O jeito é desviar a trilha para o interior, ir a Rio Tinto e pegar um trecho de asfalto (ECA!) até a praia e retomar a trilha então.

Fizemos isso debaixo de chuva fina e constante. Pegamos a trilha novamente ao norte da cidadezinha de Baía de Traição. Essa trilha, a rigor, é a PB-008 que ao norte de Cabedelo existe apenas como uma estradinha de terra que em alguns lugares não passa de uma trilha mesmo.

Chegamos então em Barra de Camaratuba para a segunda travessia de balsa do percurso. O mar estava muito seco porém já estava enchendo. A balsa não estava no local de partida e tivemos que avançar sobre o areial do leito do rio até bem próximo da barra.

Duas motos atolaram, a de Eloy e a de Laplace. Voltei a pé para ajudar e acabei trazendo a moto de Laplace para a balsa. Sem capacete! Que coisa feia!!!

A trilha até então estava tranquila e só com pequenos sustos (escorregadas) e tombos com as motos paradas. Nada demais.

Na minha inocência, o trecho mais fácil viria a seguir. A praia plana com maré baixa entre Barra de Camaratuba e Barra de Guaju. O trecho tem cerca de 12 km de areia de praia só que a maré estava enchendo … aí a areia molhada vira areia movediça.

trecho camaratuba guagu

Eu estava com garupa e apesar da areia estar meio fofa, percebi que o melhor a fazer é acelerar para não pegar o trecho entre Guaju e Sagi (o pior de todo o raid) com a maré muito alta. Acelerei com Lara na garupa imaginando que os amigos não teriam mais dificuldades pois a praia plana, areia dura … me enganei.

Cheguei a balsa de Guaju sem dificuldades e esperei pelos amigos. Nada.

20180217_135127

Começaram a demorar mais do que seria razoável. Alguém levou alguma queda ou atolou e eu simplesmente não conseguia conceber como. Praia lisa ? Como pode ter dado problema. Mal sabia. Na balsa uma Titan 150 de um nativo seguia em sentido contrário. Pedi para ele avisar aos amigos que estava tudo bem comigo e que eu os aguardava do outro lado do rio. Saberia depois que o emissário alcançou Eloy e deu o recado.

Atravessei o rio e me dirigi a praia com Lara na Garupa. A maré já estava enchendo muito. A areia estava realmente muito fofa e na primeira tentativa a moto saiu derrapando de um lado para outro e a cerca de 30km/h deu uma enterrada total. A frente da moto ficou completamente coberta de areia. Sem condições de fazer o trecho até Sagi com garupa.  A maré já estava enchendo para valer e a janela de tempo ficou muito estreita. A praia ficaria alagada com a maré alta. O jeito é seguir em frente pois não há saída de Barra de Guaju a não ser pela praia e por uma estrada de areia aos pés das dunas.

Enquanto desatolava a minha moto vi que Luciano havia chegado a balsa. Pedi a Lara ir lá falar com ele para saber o que aconteceu. Luciano assegurou que estava tudo bem e  sob controle.  Desenterrei a moto e consegui levantá-la. Lara voltou bem na hora em que eu dei partida. Ela foi de buggy até Sagi. Mandei ver na areia fofa. Depois que a moto atinge uns 30km/h ela não atola mais porém fica sambando na areia. Tem que acelerar até uns 40km/h no mínimo para estabilizar. O trecho entre Barra de Guaju e a vila de Sagi tem uns 2,5km de muita areia. Cheguei em Sagi e em direção ao calçamento, a 10cm da rua de paralelepípedo .. levei uma queda. Sem maiores consequencias mas deu uma raiva enorme. Levantei a moto e estacionei-a próxima a calçada. De repente meu celular dá um alerta de mensagem. Era uma mensagem de Laplace -> “HELP!”.

Caramba, a mensagem havia sido enviada quase uma hora atras, antes de Luciano nos encontrar. Lara chega alguns minutos depois no buggy. Vamos esperar um pouco .. que vira mais tempo .. mais tempo e nada dos companheiros chegarem. Deu alguma zica.

Dois guris estavam queimando gasolina em dois UTV’s da Polaris, passando pra lá e pra cá sem muita coisa a fazer. Cheguei para eles e pedi ajuda. Tenho alguns amigos que devem estar precisando de ajuda entre Camaratuba e Sagi. Eles toparam ajudar, subi no Polaris e voltei em direção a Barra de Guaju para ajudar os amigos.

No meio do caminho encontrei Rodolfo, Eloy,  Luciano e Laplace. Cadê Demetrius ? Aí comecei a receber a conta-gotas os relatos do que acontecera aos companheiros.

Demetrius havia levado um tombo espetacular quando voltou para salvar Laplace. A moto entrou na água do mar, a viseira, o capacete e a go pro se soltaram e cairam na água. O relato impressiona:

Esse vídeo foi gravado um pouco antes de eu reencontrar os amigos. Eles estão na barraquinha de Barra de Guaju. Nesse momento eu já estava com Lara em Sagi, 2,5km adiante.  O interruptor do motor de arranque da moto de Demetrius ficou acionado o tempo todo com o motor de arranque ligado. Demetrius muito safo já resolveu depois de recolocar a moto em ordem de marcha (guidao empenado, paralama travado, gopro resgatada).

Decidi mandar Gabriela, a garupa de Eloy, e Laplace nos Polaris. Peguei a moto de Laplace e a trouxe pela estradinha nos pés das Dunas. A praia já estava alagada pela maré. Cheguei em Sagi sem incidentes. Minutos depois chegaram os Polaris e seus passageiros e pouco depois o restante do grupo.

resgate polaris

Fomos para uma oficina de motos em Sagi onde pneus foram recalibrados e o guidão da moto de Demetrius foi parcialmente desempenado. Chovia firme e constante uma chuva honesta. Lavamos as motos e tiramos umas 10 toneladas de areia das motos e dos pilotos.

Com a chuva intensa e o adiantado da hora, já eram quase 17hs, não ia dar para continuar na trilha até Pipa. O jeito era voltar para a BR-101. Eu, Lara, Eloy e Gabriela iríamos para Pipa. Laplace, Luciano, Demetrius e Rodolfo voltariam para João Pessoa e Recife.

Aí começou a chover. Muuuuuito. Chuva diluvial de proporções bíblicas. O céu escureceu definitivamente pouco depois das 16:30. A estrada entre Sagi e a BR-101 é de barro batido e cheia de pequenos buracos. Super molhada e escorregadia. Eu e Eloy encaramos só que eu mantive um ritmo mais forte porque não queria ter que rodar nessa estrada em péssimas condições e ainda por cima a noite com o farol alto queimado. Sim, descobri isso na noite anterior e fiquei tranquilo pois não imaginava que teria que rodar a noite considerando que partimos de Lucena as 9hs da manhã.

Rodar numa estrada de terra que você não conhece, com garupa, sob chuva torrencial e com a noite se aproximando não é uma experiência legal. Felizmente chegamos a BR 101 sem incidentes as 16:54 mas. Aí … a chuva que eu pensava que já tava no máximo começou a virar uma tempestade. Encharcado até os ossos, encaramos a BR-101 que é um tapete até Goianinha onde parei para abastecer. Eloy estava num ritmo mais lento e isso me preocupava. Já era noite fechada, a chuva não aliviava e a estrada de Goianinha para Pipa é muito sinuosa, cheia de lombadas e alguns buracos. Não estava afim de encarar essa estrada por muito tempo a noite escura. Como é uma estrada muito movimentada e cheia de vilas, mesmo que furasse um pneu não é difícil de obter ajuda. Decidi acelerar e seguir direto para Pipa chegando na Pousada Aconhego da Pipa as 17:47. Minutos depois, Eloy me avisa que tinham chegado sãos e salvos na Pousada Alemã.

Demetrius, Laplace, Rodolfo e Luciano vão um pouco atras, e pegam a BR-101 enfrentando muita chuva. Algumas horas depois, Luciano avisa que já estava são e salvo em casa em João Pessoa. Laplace, Dema e Rodolfo continuaram para Recife a noite e na chuva torrencial.

O raid não foi completo pois não fizemos o trecho entre Sagi e Baía Formosa, quando voltaríamos a praia e seguiríamos até Barra de Cunhaú, depois Sibaúma e a estradinha que vai dali até o “Chapadão” de Pipa. Não havia condições. Muito escuro, muita chuva e a maré alta iria impedir o passeio na praia entre Baía Formosa e Barra de Cunháu, onde pegaríamos outra balsa.

No fim, o passeio que deveria ter sido super tranquilo virou uma aventura com ares dramáticos e que para alguns era quase um pesadelo. Mesmo assim valeu a pena. Amizades se consolidaram e o valor da solidariedade em momentos de angústia foi devidamente apreciado pelos aventureiros.

Apesar do saldo positivo, existiram alguns erros. O maior foi ter subestimado a maré em Barra de Camaratuba.

Primeiro eu li a hora da maré erradamente.  A maré estava completamente seca as 11:23 pois o horário do site que eu vi era de Brasília, que no sábado ainda estava no horário de verão e dizia 12:23 … Ora, quando entramos na praia em Barra de Camaratuba já eram 13:26, portanto, a maré já estava enchendo há 2 horas. Esse ponto tem que ser atingido com a  maré ainda secando por pelo menos mais 2 horas que é para dar tempo de chegar a Sagi sem maiores complicações e ainda com sobra de tempo para pegar a praia entre Baia Formosa e Barra de Cunhaú, sem estresse. Em suma, estávamos 4 horas atrasados. Desse atraso, uma hora foi por erro de horário de verão. As outras 3 horas foram erro meu de não ter dimensionado bem o tempo entre Lucena e Camaratuba.

Entre Camaratuba e Guaju, eu e Lara fizemos de moto em 17 minutos. Isso porque no meio do caminho eu notei que os amigos haviam se atrasado e cheguei a voltar para ver o que estava acontecendo. Depois que vi que todos estavam na praia e rodando (a distancia), retomei o rumo em direção a Guaju e acelerei. Segundo o meu tracklog, foram 4 minutos de turn-around. Ou seja, o trecho entre Camaratuba e Guaju pode ser feito em 13 minutos, com garupa.

O ponto chave desse roteiro é a Barra de Camaratuba. Se a maré não estiver secando quando chegar e esse ponto, é melhor desviar para a trilha por dentro dos canaviais (que eu não conheço).

Entre Guaju e Sagi fica o trecho mais dificil. A praia é estreita e tem pedras encravadas na beira da praia. Tem que ter muito cuidado. A areia é muito grossa e fofa e a alternativa é a estradinha no sopé das dunas. Eu não conheço essa estradinha. Ela é muito usada por 4×4 que visitam essa região. Com a chuva, a estradinha estava razoavelmente fácil. Só que eu não sabia. O jeito foi ir pela praia mesmo. Porém, para os amigos seria tarde demais. A maré alagaria a praia toda. O ponto que quero demonstrar é que Guaju para Sagi talvez seja melhor pela estradinha, afinal de contas.

Eu e Lara ficamos na pousada esperando a chuva passar para irmos jantar com Eloy e Gabriela. Só que a chuva que já estava alagando a vila de Pipa engrossou ainda mais. Comemos um jantar por ali mesmo apesar dos convites insistentes de Eloy para jantarmos juntos. Só que estávamos relativamente longe para ir a pé na chuva. Mesmo assim, deu uma estiada e corremos para a Sorveteria Preciosa. Eloy/Gabriela ainda estavam jantando e decidimos nos encontrar na hora do almoço do domingo, faça chuva ou sol. Sim, a previsão de tempo era que ia chover para caramba no domingo.

Felizmente amanheceu um belo dia ensolarado. Formos para a praia, tomamos uma água de coco com Eloy/Gabriela e voltamos para a Pousada Aconchego da Pipa, empacotamos as coisas e pegamos a estrada de volta para Recife. Pequena pausa para calibrar os pneus em Goianinha, onde Lara fez um lanchinho e eu comi uma coxinha (canibalismo) e tomei um café para ficar esperto. Eram 13:15 da tarde quando pegamos a BR-101 pra valer sentido sul para irmos para Recife. Dia ensolarado, viagem sem maiores incidentes. Paramos no Rei das Coxinhas 2 horas depois. Mais canibalismo e 3 coxinhas de camarão com catupiry para nossas filhas que nos aguardavam em Recife. O tempo já não estava mais tão ensolarado e lá longe dava para ver que as nuvens carregadas ameaçam dar outro banho na gente. Passei com cuidado na curva depois da fronteira PB/PE um pouco antes de Goiana onde eu imaginava que tinha sido a queda de Laplace. Eu só viria a saber com certeza o local da queda na segunda-feira de manhã. Realmente o local é perigoso, uma curva numa descida com algumas ondulações na pista, piche e resto de cana-de-açucar esmagada. Deve ficar um sabão. Isso a noite então é um acidente esperando acontecer.

Chegamos em casa as 16:20 felizes por mais uma aventura.

Minha esposa Lara foi magnífica. Com espírito de aventura, não reclamou uma vez sequer do frio, calor, umidade, areia, sal, lama, buraqueira, fome, sede, medo de cair ou qualquer coisa que fosse. Sempre encarou na boa e com excelente humor. Ficou um bocado preocupada com os amigos que se atrasaram e no fim ficou aliviada porque não houve nada sério, apenas os perrengues típicos de uma aventura de trilha light do Bokomoko.

Segue o tracklog do passeio

https://www.wikiloc.com/wikiloc/spatialArtifacts.do?event=view&id=22752779&measures=off&title=off&near=off&images=off&maptype=SPowered by Wikiloc

 

 

O provedor de internet afeta a velocidade do meu acesso ?

Sim, o provedor afeta a qualidade e a velocidade da internet do usuário.

Entenda que um provedor é nada mais do que um “atacadista” de internet. Ele compra internet de um provedor MAIOR em atacado, em grande “quantidade” (na verdade em grande velocidade) e revende no “varejo”, em pequenas partes, para os seus clientes.

Por exemplo, um provedor pequeno (vamos chamá-lo de tartaruga) compra 1000 megabits por segundo de um provedor maior (vamos chamá-lo de coelho). Como ele está comprando uma velocidade grande dessas, o coelho dá um desconto para tartaruga.

O coelho então faz a conexão em alta velocidade entre a sua sede e a sede de tartaruga.

Tartaruga liga a sua rede a conexão que coelho proveu e acessa a internet.

Aí um cliente de tartaruga, vamos chamá-lo de caramujo, compra de tartaruga um acesso de 10 megabits por segundo. Como tartaruga tem 1000, caramujo vai ocupar 10, sobram 990 megabits para tartaruga vender para outros otário.. .quer dizer … clientes. Tartaruga então vai passar um cabo de fibra ótica, ou coaxial ou fio de cobre entre a sua sede e a casa de caramujo. Em cada ponta do fio/fibra/cabo tartaruga instala um “roteador” para interligar os equipamentos da casa de caramujo a rede de tartaruga em sua sede. Essa ligação pode ser feita inclusive via rádio. Assim que os provedores em geral funcionam, inclusive os provedores via rádio.

Ora , se tartaruga vende acessos de 10 megabits e ele tem 1000 megabits significa que tartaruga só poderia ter 1000/10 = 100 clientes como caramujo.

Aí começa a malvadeza dos provedores de acesso. No ramo de provedores essa malvadeza se chama “colocar água no leite”. Ou seja, tartaruga compra 1000 megabits por segundo mas vende muuuuuuuuito mais do que esses 1000 megabits.

Suponha que tartaruga tenha 100 clientes de 10 megabits por segundo cada um. Então 100 * 10 = 1000 megabits que ele comprou de coelho .. até aí tudo bem.

Mas e se tartaruga vender para outros 100 clientes os mesmos 10 megabits ?

Ele vai ter 200 clientes cada um a 10 megabits por segundo, portanto ele vendeu 200 * 10 = 2000 megabits ! É o dobro do que ele compra de coelho !!! Como pode isso ?

O que acontece é que a maioria das pessoas, quando acessa a internet apenas para navegar na web, enviar/receber email, mandar/ mensagens via skype/whatsapp, passa a maior parte do tempo LENDO/ESCREVENDO o conteúdo e só alguns momentos usando de fato a capacidade de recepção/transmissão da internet.

Por exemplo, quando você acessa o site de perguntas e respostas para escrever uma pergunta, você acessa a página, ela é transmitida para o seu computador. Aí para a transmissão, a sua internet fica ociosa. Enquanto você está lendo a página e depois escrevendo a pergunta, nada é transmitido/recebido. O seu provedor não envia nem recebe dados. Fica ocioso. Quando você escreve tudo e clica no botão enviar, só então os dados são transmitidos. Acontece que tanto a página que você leu como a pergunta que você enviou são pequenos. Tem poucos dados e são transmitidos/recebidos rapidamente. A internet volta a ficar ociosa.

Justamente por causa do caráter de uso intermitente da internet que as pessoas fazem, permite-se que o provedor venda MAIS do que COMPROU. Enquanto você está lendo a sua mensagem, outro usuário do provedor está baixando de fato uma página.

Bom, isso acontecia muito antigamente quando a internet era basicamente só texto. Por causa dessa característica, era comum o provedor vender algo em torno de 50 a 100 vezes mais do que comprou. E o curioso é que ninguém percebia lentidão alguma.

Aí o tempo passa, o tempo voa, a internet vai se sofisticando e passa a trafegar imagens (opa, é muito mais dados), som (mais dados ainda) e vídeo (aí laskou de vez porque é dado pra caramba). Ahá ! Com o advento da multimídia a demanda de transmissão de dados aumenta muito.

Para assistir um video na internet, no youtube ou netflix, quando você dá play, o vídeo tem que ser transmitido em alta velocidade e em grande quantidade de dados. O usuário de internet fica sem fazer nada enquanto os dados são transmitidos. O mesmo acontece quando se vai fazer um download (ou upload) de um arquivo, de um jogo, de um programa. São muitos dados transmitidos. O mesmo acontece com jogos online em que os comandos do jogador e as modificações no campo de jogo são transmitidas/recebidas continuamente.

Aí os provedores que colocavam muita água no leite não conseguem manter a velocidade percebida.

Voltando ao exemplo de tartaruga, que vendeu 2000 megabits (para 200 clientes) apesar de ter comprado apenas 1000 megabits de coelho.

Se todos os 200 clientes de tartaruga decidirem acessar a internet ao mesmo tempo então os 1000 megabits que ele compra de coelho terão que ser divididos entre os 200. Isso significa que 1000/200 = 5 megabits ! Epa !! que história essa ? Os clientes de tartaruga estão pagando por 10 megabits  e só estão recebendo 5, metade disso !! AHá !!! Aí está a água no leite.

Como estatisticamente a probabilidade de TODOS os 200 clientes de tartaruga estarem em casa ao mesmo tempo e todos fazendo download ao mesmo tempo é praticamente nula, não se percebe problema. Porém, se todo mundo começar a usar … aí a rede fica lenta. Por isso que existem horários em que a internet é mais lenta e em outros horários a internet é mais rápida.

Para tornar mais cruel esse lance da água no leite, a ANATEL no Brasil em 2018 permite que a velocidade real disponibilizada para os cliente seja apenas 10% da velocidade nominal contratada. Isso significa que se você paga por 50 megabits, você só pode exibir um décimo dessa velocidade, 5 megabits. Em teoria os provedores podem vender 10 vezes mais a sua banda nominal. Na verdade eles vendem muuuito mais que isso e aí acontecem as oscilações de qualidade entre um provedor e outro.

Então porque a escolha do provedor pode afetar a velocidade da internet ?
Pense bem, se tartaruga compra 1000 megabits e vende para 200 clientes ele vai ter uma velocidade percebida melhor do que outro provedor chamado LentaNet que compra os mesmos 1000 megabits mas vende para 600 clientes.

Agora pense bem, da mesma forma que tartaruga e LentaNet compram de coelho, coelho compra de um provedor MAIOR ainda um enlace de 10.000 megabits para vender para um monte de tartaruga’s e LentaNet’s, portanto o problema da água do leite continua nessa escalada para cima. O que quero dizer é que você pode ser cliente de um provedor que é cliente de um provedor que é cliente de outro provedor que é cliente de outro provedor …. e cada um deles vai ter a sua velocidade e a velocidade final que você vai perceber é uma mistura das velocidades derivadas de cada um desses enlaces.

Outro aspecto interessante é o da interconexão.

Suponha que a OutraNet seja um provedor na mesma cidade que tartaruga e LentaNet. Suponha que OutraNet está ligando a um provedor diferente de coelho. Vamos chamá-lo de ChitaraNet. O mesmo esquema, ele compra de um provedor maior que nem tartaruga faz com coelho.

Agora imagine que na rede de tartaruga tem um servidor de jogos muito legal, com uma turma boa e animada. Os usuários de OutraNet jogam muito nesse servidor. A rede de OutraNet tem que dar a volta ao mundo para sair pela ChitaraNet, ir até o provedor de ChitaraNet passar não sei por onde e em algum momento entrar na rede de coelho e dentro da rede de coelho chegar a tartaruga onde está o servidor de jogos.

O administrador de OutraNet percebe então que esses usuários do jogo estão ocupando a saída para a internet apenas para se ligarem a um servidor que está do outro lado da cidade. Esse administrador é esperto e liga para o administrador de tartaruga e propõe o seguinte : “Olha, tenho muitos usuários que acessam seu servidor. Tanto eu como você estamos pagando caro para nosso provedores para essa galera jogar. Que tal se a gente ligasse nossas redes diretamente entre si, sem intermediários ? Os jogos ficariam mais rápido e a gente não ocuparia nossa saída para a internet”. Tanto para tartaruga como para OutraNet é interessante “trocar tráfego” entre si já que existe um volume de tráfego grande. Dependendo do volume pode sair mais barato ligar direto. Além disso, um pode usar a saída do outro para internet em caso de pane no provedor. Isso é o que se chama de interconexão.  Eles concordam e estabelecem o enlace entre um e outro e dividem a conta. Esse é o princípio da “teia” da internet.

Então, se ao tentar acessar um servidor na internet, onde quer que seja, pode ser um servidor de web, de vídeo, de áudio, de email, de arquivos, de jogos, seja o que for … pode acontecer de ter mais de um caminho para chegar a esse servidor. Quanto menor for o caminho, mais rápido será o acesso.

Isso significa que a velocidade de fato muda de um provedor para outro mas dependendo do que você vai acessar, pode ser que o provedor que é lento para todo mundo seja suficientemente rápido para você.

Os provedores de acesso promovem a utilização da sua própria rede para diminuir o uso da saída para a  internet que é cara. Por isso os provedores locais criam seus próprios servidores locais de jogos para que os usuários não esgotem sua saída para internet.

 

A comoditização dos sistemas de gestão empresarial.

Nos últimos 25 anos, recursos computacionais antes acessíveis apenas a grandes corporações se tornaram mais baratos e empresas de todos os tamanhos puderam implantar sistemas que trouxeram ganhos enormes de produtividade nos processos administrativos, operacionais e gerenciais das empresas. Para atender as demandas de gestão, diversos fabricantes de software criaram os sistemas de gestão e planejamento empresarial, os famosos ERP’s (enterprise resource planning).

A disputa acirrada pelo mercado de ERP’s fez com que os fabricantes de software buscassem atender os mais variados aspectos da gestão empresarial, adicionando funcionalidades numa disputa em que os maiores beneficiados foram as empresas. Hoje os ERPs possuem mais funções e são utilizados por cada vez mais departamentos dentro da empresa típica. Finanças, logística, vendas, controladoria, recursos humanos, marketing, produção industrial, relacionamento com cliente e até a presença da empresa nas redes sociais já são funcionalidades comuns encontradas nos principais ERP’s do mercado.

Mesmo com a redução de custos mencionada acima os ERP’s ainda são caros. Essa abundancia de funcionalidades é fruto de um fenômeno chamado de “evolução convergente”. Qualquer diferencial funcional que um ERP tem sobre outro é rapidamente copiado e implementado pelos concorrentes. O diferencial competitivo dos fabricantes de ERP ainda é fortemente baseado na qualidade de atendimento pós-venda, nos serviços de valor agregado após a instalação e ativação do ERP. Num mercado cada vez mais exigente, esta qualidade de atendimento deixa de ser um diferencial para ser um pré-requisito básico para permanecer no mercado. Com a evolução convergente e a adoção de metodologias de atendimento, a diferenciação competitiva passa a ser o preço da solução, uma característica das commodities. Por isso que os ERP’s tendem hoje a comoditização.

Se os ERP’s estão cada vez mais equivalentes em termos funcionais, ao mesmo tempo boas práticas de gestão são adotadas pelas empresas de forma mais profissional. Isso também leva a uma convergência de padrões de funcionamento operacional entre empresas do mesmo segmento. Um hospital vai ter processos da área financeira/contábil muito parecidos com os processos de outros hospitais. A forte regulamentação de alguns segmentos impõem práticas idênticas a empresas diferentes. Um exemplo é o sistema de SPED fiscal e contábil que praticamente impõem as empresas a adoção de planos de contas contábeis virtualmente idênticos em sua estrutura, diferenciando-se apenas nos níveis mais analíticos, se tanto. Tudo isso contribui para que os processos das empresas fiquem ainda mais parecidos entre si.

Somando-se assim a padronização dos processos e a oferta muito parecida dos ERP’s, o problema está posto: Como se diferenciar num mar de commodities de sistemas e de “boas práticas” de gestão?

Para tirar o melhor proveito da redução de custos que a comoditização dos sistemas de gestão proporciona é preciso preservar alguma forma para promover o diferencial competitivo. O ganho da redução de custo com o aumento da produtividade agora é um lugar comum. O diferencial competitivo virá da capacidade de atender o mercado de forma mais ágil e mais peculiar. A “pessoalização” (neologismo proposital) do atendimento ao cliente já é uma realidade quando se vê o relacionamento 1 a 1 que as redes sociais proporcionam entre as empresas e seus clientes consumidores. Isso não está completamente resolvido, como se pode ver no espetáculo de sucessos e fracassos de interações entre empresas e clientes na teia complicada das redes sociais. Uma falha num atendimento a um cliente em particular pode se tornar um vexame de repercussão mundial se o vídeo do mau atendimento se tornar viral. Ao mesmo tempo, um atendimento especial e diferenciado a um cliente pode ser alvo de elogios nos Facebooks da vida (vide o caso da assistência técnica de Iphone em São Paulo).

As estratégias para diferenciação no mercado precisam se apoiar nos mesmos princípios de integração e redução de custos. É preciso diferenciar e ao mesmo tempo integrar os processos, principalmente no relacionamento da empresa com clientes e fornecedores/parceiros e também é preciso ter essa integração garantida nas inovações dos processos internos, interdepartamentais. Inovações criadas num departamento devem ser integradas aos sistemas e controles corporativos de forma econômica, eficaz, rápida e principalmente barata.

A tecnologia de informação pode ser um instrumento importante para se obter o melhor dos dois mundos: a redução do custo aliada da maior eficácia/eficiência das práticas consagradas e a capacidade de inovar, de fazer diferente, agregando valor consistente de forma inequívoca a empresa e aos personagens envolvidos. Ora, se o recurso é commodity, tanto melhor. Vamos compra-lo mais barato. Ao mesmo tempo, vamos buscar o diferencial.

Para se obter tal combinação paradoxal de padronização e diferenciação, os requisitos que são impostos pelo mercado à empresa (agilidade, leveza, rapidez, economia, diferenciação) devem ser repassados às soluções de TI da empresa. Considerando que o ERP deixa de ser um diferencial (hoje é mais uma necessidade), não será através dele que a diferenciação será obtida. Outra ferramenta deve ser adicionada ao portfólio da área de TI mantendo a rapidez, o custo baixo e promovendo e preservando as integrações. Isso pouco combina com ERP. O mercado maduro e aculturado já sabe que ERP é caro, demora para ser implantado, requer um esforço enorme para ser instalado e move-se de forma lenta no quesito de inovação.

São notórios os casos de implementações de ERP com muita customização que atingem custo elevadíssimo, demoram tanto que quando são concluídas o cenário que a empresa enfrenta já mudou completamente e a customização nasce obsoleta após consumir recursos críticos que poderiam ter sido melhor utilizados em outro projeto. As tentativas de fazer o elefante dançar um novo ritmo resultam em uma sala de cristais quebrados e oportunidades perdidas. Os poucos que sobreviveram a customização grande incorrem em custos ainda maiores de propriedade. Não é fácil atualizar o ERP customizado para uma versão nova aderente a uma nova regulamentação ou legislação. Análises de impacto para migração custam caro, demoram e só pioram o cenário.

O que o mercado consumidor de ferramentas de gestão precisa é uma ferramenta que se acople ao ERP sem ferir suas regras de controladoria e os seus processos e que ao mesmo tempo seja leve e ágil para proporcionar uma capacidade de integrar mais processos novos aos processos antigos, sem mexer no núcleo caro do ERP. Novamente a tecnologia vem ao socorro. Os fabricantes de ERP já dispõem de tomadas para que softwares de terceiros sejam plugados a solução corporativa. O que falta é criar essas aplicações satélites ao ERP de forma rápida, barata e moderna. Os requisitos do mercado são características dessa nova ferramenta que deve funcionar na grande rede, integrar-se com os sistemas corporativos legados desenvolvidos nas mais diversas tecnologias (umas atuais, outras nem tanto), ser capaz de funcionar em dispositivos móveis, ter uma interface completamente voltada ao usuário, ter inteligência para realizar processamentos preliminares antes que os dados sejam definitivamente introduzidos no ERP. Essa ferramenta deve ter performance escalável que a permita atender a um grande número de usuários internos na corporação e na rede mundial com baixo custo de propriedade. Além disso, tal ferramenta deve ser versátil para poder atender os diferentes aspectos do funcionamento moderno com dados multimídia (vídeo, áudio, imagem, etc), georreferenciamento, integração com as redes sociais. Tal ferramenta deve ser capaz de reaproveitar o conhecimento das novas regras de negócio e reutilizá-las de forma integrada.

A Procenge, como fabricante de ERP de alcance nacional, enfrenta esse desafio através da sua linha de produtos Innfluit que vem atender justamente essa necessidade de adequação rápida aos novos cenários que seus clientes tem que encarar. O Innfluit permite que novas aplicações específicas para cada cliente sejam desenvolvidas rapidamente e de forma integrada, com custo muito baixo e valor agregado alto. Processos novos que exigiriam um esforço grande para serem integrados ao ERP corporativo agora podem ser implementados rapidamente com garantida de qualidade e de usabilidade com reflexo instantâneo na produtividade da força de trabalho da empresa cliente. O Innfluit é capaz de se integrar aos principais ERP’s do mercado nacional com esforço muito pequeno.

Para o gestor corporativo, saber que pode contar com a área de TI para ser uma gente importante nas ações estratégicas da empresa é um alívio. Se antes a preocupação ao tomar uma decisão estratégica era se o ERP iria arrastar a empresa, a preocupação agora passa a ser se o gestor de TI compartilha da visão estratégica, se tem conhecimento dos negócios e processos internos da corporação e se tal gestor de TI está constantemente monitorando tais processos visando otimizá-los com mais forte integração, com modernização das interfaces dos sistemas legados e até mesmo implementação de um processo automatizado que antes era feito manualmente ou com o auxílio das onipresentes planilhas em Excel. O papel do gestor de TI deixa de ser do defensor do sistema aplicativo e sim um promotor de integração de processos com uma visão convergente com a estratégia da empresa. O gestor de TI deixa de ser um portador de más notícias e passa a ser um catalizador de novos projetos que trarão a diferenciação e aumento da competividade da organização.