![]() |
"EQUÍVOCO NAS NOVAS ESTRATÉGIAS DE TI E TCOM"
Os atuais estrategistas das áreas de tecnologia de TI e TCOM deveriam reaprender a se posicionar ao lado da SOLUÇÃO e não do PROBLEMA com têm feito, obedecendo unicamente aos interesses dos grandes fornecedores de hardware e software - mais consultores e formadores de opinião regiamente remunerados -, em prejuízo de suas empresas.
Para justificar essa afirmação, vamos relembrar um pouco da história dessas tecnologias:
Um pequeno resumo histórico da Tecnologia da Informação
Desde o advento do famoso ENIAC, há 64 anos (em 1946), as tecnologias de TI e TCOM se desenvolveram como nenhuma outra na história da humanidade. Nos primeiros tempos, os computadores, monstruosos e caríssimos, ficavam enclausurados em verdadeiros "castelos de cristal", e todos os que com eles trabalhavam eram rotulados "gênios", uma classe totalmente diferenciada dos míseros mortais.
Após 31 anos (em 1977) esse cenário começou, enfim, a mudar, quando as mentes brilhantes de Steve Jobs e Steve Wosniak trouxeram ao mundo o APPLE II - equipado com um processador 6502 (tecnologia MOS) de 8 bits, com clock de 1Mhz e 4KB de memória RAM, que usava uma TV como monitor (24 linhas por 40 colunas) e cassetes de áudio como memória de massa, a preços que variavam entre US$ 1200 e US$ 2700 -, onde se executou o primeiro software popular do mundo, a Planilha Eletrônica VISICALC.
Em 1981, com o IBM PC de 16 bits e arquitetura aberta, mais o surgimento da Microsoft com seu MS-DOS - de Tim Paterson e Bill Gates -, o microcomputador entrou de vez na vida das pessoas, assim como nas pequenas e médias empresas e, após muita luta, também conseguiu espaço nas grandes corporações, principalmente devido a um fator: a ânsia por AGILIDADE.
As empresas, em franco desenvolvimento, não aguentavam mais os prazos de entrega dos gênios da torre de cristal - do MAINFRAME -, e precisavam ter algum poder de processamento na mesa do usuário, mesmo que em condições incipientes... e esse cenário proporcionou um enorme avanço.
A evolução da tecnologia de LAN (local area network), antes somente restrita à interligação dos grandes computadores de mesmo fabricante, foi fundamental para esse avanço e a proliferação dos microcomputadores, desafiando mais e mais o poder dos CPD's nas médias e grandes corporações.
O ano de 1983 foi declarado "o ano da LAN", mas os protocolos e hardwares incompatíveis prejudicaram sua evolução, até que o Novell NetWare se tornou um padrão mundial. alavancado por um excelente e performático Sistema Operacional. A hegemonia da Novell somente foi quebrada em 1993, dez anos depois, com a parceria da Microsoft e 3Com, o Windows NT e o Windows for Workgroups...
Um resumo ainda mais compacto da história da TCOM
Vamos voltar um pouco no tempo para falar da outra tecnologia base: telecomunicações (TCOM).
Após inumeráveis pesquisas, iniciadas em 1955 com a criação do ARPA (Advanced Research Projects Agency), os dois primeiros elos da ARPANET foram estabelecidos em 29 de Outubro de 1969, entre a Universidade da Califórnia, em Los Angeles, e o SRI, em Menlo Park. A ARPANET é tida como a precursora da INTERNET.
O conjunto de protocolos TCP/IP surgiu do trabalho colaborativo entre DARPA e ARPANET. O uso do termo INTERNET para descrever uma única rede TCP/IP global apareceu em 1974 com a publicação do RFC 685, a primeira especificação completa do TCP, escrita por Vinton Cerf, Yogen Dalal e Carl Sunshine, da Universidade de Stanford.
A primeira grande rede TCP/IP foi inaugurada em 01 de Janeiro de 1983, interligando todos os computadores da ARPANET. Em 1985 a NSF (National Science Foundation) patrocinou a construção da National Science Foundation Network, um conjunto de redes universitárias interconectadas a 56 Kbps. Em 1986 esse backbone sofreu um upgrade para 1,5Mbps.
A abertura dessa rede universitária para interesses comerciais foi autorizada em 1988, com a interconexão entre o NSFER e o MCI Mail em 1989, seguido por outros serviços comerciais de correio eletrônico. Rapidamente, várias outras redes comerciais e educacionais foram interconectadas, tais como a Telenet, a Tymnet e a JANET, contribuindo para o crescimento da internet.
A habilidade do conjunto de protocolos TCP/IP de trabalhar com quaisquer redes de comunicação pré-existentes, colaborou para que se tornasse cada vez mais popular. O rápido crescimento da internet se deveu, principalmente, pela disponibilidade de rotas comerciais disponibilizadas por empresas como Cisco Systems, Proteon e Juniper, bem como equipamentos de rede local baseados no protocolo Ethernet.
Para finalizar a história, falta falar sobre o nascimento da World Wide Web - hoje simplesmente WEB -, em 1990, sob o patrocínio da CERN (Organização Européia para a Investigação Nuclear). A WEB foi inventada por Tim Berners-Lee para facilitar a troca de informações entre cientistas e acabou se tornando a maior responsável pela popularização da internet. A WEB foi disponibilizada para o mundo no verão de 1991.
Embora a internet tenha iniciado seu caminho no início dos anos 80, somente se popularizou com a WEB na década de 90, quando seu crescimento foi estimado em mais de 100% ao ano, com um crescimento vertiginoso entre 1996 e 1997. Esse crescimento é atribuído à "falta de uma administração central" - o que não existe na realidade, vide Web Mining, Switches Layer 7 e outros (leia "A Utopia da Internet Livre") -, mas que lhe deu uma impressão até certo ponto anárquica e romântica.
Outro fator que alavancou esse crescimento vertiginoso foi a natureza aberta do conjunto de protocolos TCP/IP.
Lógico que não incluímos nesse resumo o importante desenvolvimento tecnológico dos meios físicos e de equipamentos (wire, wireless e ópticos), responsáveis pelas camadas física (1) e de enlace (2) do Modelo OSI, sem os quais o vertiginoso avanço das redes estaria bastante prejudicado.
Concluindo, para não ser monótono, após tanta história....
Vimos que foram necessários mais de trinta (30) anos para que o mainframe começasse a sofrer a concorrência dos microcomputadores, e quase mais dez (10) para que esses microcomputadores estivessem interligados em rede local (LAN) de modo profissional, concorrendo realmente com o poder dos caríssimos mainframes e dos muito bem pagos "gênios dos castelos de cristal", e trazendo para perto da produção a TI e TCOM a preços razoáveis.
Isso trouxe enorme AGILIDADE aos processos produtivos - industriais, comerciais e acadêmicos -, obrigando, inclusive, que os gênios do tal "castelo" se aproximassem mais dos responsáveis pela execução do trabalho, na figura dos Anallistas de Negócio.
Com certeza, a computação distribuída foi uma conquista IMPORTANTÍSSIMA para todos e não pode ser perdida como pretendem os atuais estrategistas, detentores de altos cargos em TI e TCOM, que pensam pouco e copiam bastante...
Aceitamos que os sistemas de informação distribuídos trouxeram consigo, muito mais por culpa da desorganização empresarial (falta de procedimentos bem definidos e devidamente acordados, aderentes à realidade e constantemente atualizados) que deles próprios, vários problemas, tais como esforço duplicado, equipes superdimensionadas e gastos desnecessários em hardware, software e pessoal, mas o ganho conseguido foi sempre muito maior.
Hoje as tecnologias existentes, tanto em TI como TCOM, permitem que "os olhos do dono engordem os bois", mesmo que os bois estejam dispersos por todo o mundo...desde que o sistema esteja organizado e os procedimentos bem definidos e aderentes à realidade...
Mas os grandes "players" do mercado (tanto de hardware como software), concluíram que podem ganhar muito mais DE VOLTA AO PASSADO dos sistemas centralizados, dos equipamentos caríssimos de entendimento complexo e difícil operação, que demandam mão-de-obra super-especializada e muito bem paga, ao que pode se adicionar os conhecidos serviços de consultoria, suporte, etc... etc...etc.... Isso posto, esse "players" estão gastanto muito tempo e dinheiro, com LOBIES poderosos, para convencer os atuais estrategistas... gerentes e diretores... a seguirem esse caminho... lógico, com nomes devidamente "rejuvenescidos"...
.... tais como outsourcing de TI/TCOM (antigos birôs de processamente de dados), Servidores Virtuais (antigas Virtual Machines dos mainframes IBM), DeskTops Virtuais (antigos Terminais Burros IBM 3278...), sistemas MetaFrame/Citrix, Terminal Servers e Aceleradores de WAN (como se uma WAN pudesse ser acelerada ou freada...), conceitos básicos do Cloud Computing, que retiram o poder de processamento que sofremos tanto para dar aos usuários (agora considerados perigosos e de má índole) e o colocam novamente a mercê de mainframes travestidos, de altíssimo custo, operados por novos gênios... com os mesmos Prazos de Entrega ao invés de Tempos de Resposta para cada demanda... e a reedição da velha e conhecida FILA de atendimento... centralizada.
Para isso, esses "expertos" usam com maestria todas as armas para "marketear" algumas alegações absurdas...: redução de custos da TI... que não se sustenta em qualquer exame um pouco mais acurado... melhoria na segurança... que também não resiste a qualquer avaliação de riscos para o negócio... Alguém aí se lembra da sabedoria popular: nunca colocar todos os ovos num mesmo cesto ?... maior controle do negócio... sem atentar para o fato que esse falso controle leva "a apoplexia ao centro e a anemia às extremidades", conforme sempre ensinou o grande Peter Drucker...
E como fica o usuário-cliente e o negócio nesse cenário ?
Parece que ninguém se importa... nem com um nem com outro... O que importa para os executivos "estrategistas" é aparecer em grandes eventos, ao lado dos grandes fornecedores, recitando toda sorte de novos/velhos termos.. e alardear que estão sendo implantados em suas empresas, por meio de contratos de preços estratosféricos....
Ademais, conceitos e melhores práticas preconizadas pelo ITIL e PMI, entre outros, estão sendo utilizados pelos mesmos antigos BUROCRATAS da TI e TCOM, para engessarem as engrenagens das empresas, fazendo com que tarefas que poderiam (e deveriam) ser realizadas em minutos passem a demandar dias e projetos que poderiam ser concluídos em dias, passem a demandar intermináveis meses...
Numa leitura imparcial, o controle nunca pode tomar mais que dez ou vinte por cento do tempo total de uma atividade produtiva... na pior das hipóteses... O contrário deveria ser inaceitável...
Dito isso, reitero minha afirmação feita no início deste artigo: "Muitos dos atuais executivos, "estrategistas" das áreas de tecnologia de TI e TCOM, deveriam reaprender a se posicionar ao lado da SOLUÇÃO e não do PROBLEMA com têm feito na ânsia de aderir à "moda" lançada unicamente para atender os interesses dos grandes fornecedores de hardware e software - mais o LOBBY de consultores e formadores de opinião regiamente remunerados -, em prejuízo de suas empresas".
O exposto não quer dizer que algumas das tecnologias atuais de TI e TCOM deva ser desmerecida... muito pelo contrário, pois elas concedem uma importância enorme à função do ARQUITETO (aquele que detém elevada competência técnica e conhecimento das mesmas), que junto a uma equipe de projetos deve ter autonomia suficiente para BEM utilizar cada tecnologia, de acordo com cada cenário e necessidade específicas.
O que ocorre é que muitos dos que se dizem arquitetos - normalmente apenas pseudo-executivos de TI -, com cérebros embotados e/ou conhecimento e interesses duvidosos, simplesmente aderem ou copiam modelos disseminados por grandes fornecedores, ou entendem que podem resolver todos os complexos problemas de TI/TCOM de uma única maneira ou baseados numa única tecnologia... isso é absurdo...
O que PODE ser centralizado TALVEZ deva ser centralizado, isso após uma análise criteriosa do quanto custará realmente essa centralização, dos riscos e das necessidades de segurança do negócio, além do impacto social, e o que NÃO PODE ser centralizado deve permanecer descentralizado para não engessar nem burocratizar demasiadamente a empresa.
Via de regra, a CENTRALIZAÇÃO em TI/TCOM leva apenas fatores negativos, mormente:
1. um AUMENTO absurdo nos CUSTOS totais de TI/TCOM, seja pela necessidade de caríssimas instalações, equipamentos e LINKS de comunicação de altíssima capacidade, seja pela necessidade de mão-de-obra e serviços mais qualificados e dispendiosos...
2. um CRESCIMENTO enorme nos RISCOS para o NEGÓCIO, visto um sistema centralizado colocar a TI refém da TCOM e qualquer problema afetar todo o conjunto (todos os ovos num mesmo cesto). O aumento na SEGURANÇA é muito mais dependente de procedimentos bem definidos que de um sistema centralizado...
3. uma QUEDA abrupta na QUALIDADE dos SERVIÇOS (QoS) oferecidos aos clientes, considerando-se que os tempos de resposta e performance de um sistema centralizado nunca conseguem, por restrições técnicas (congestionamentos, latência na rede e outros), nem ao menos se igualar aos de um sistema local bem definido.
O que importa, realmente, para a segurança, o controle e a redução de custos não é a centralização, mas sim PROCEDIMENTOS muito bem definidos, obedecidos, constantemente atualizados e que reflitam a realidade e o anseio das áreas-clientes, mormente quando essas forem responsáveis ou colaborarem para o lucro do negócio..
Finalizando, adiciono algo que sempre disse quando dava aulas a pequenos empresários, no início do SEBRAE: "sistemas de computadores - centralizados ou descentralizados -, não organizam nenhuma empresa; eles simplesmente multiplicam o que nelas encontram, ou a ORGANIZAÇÃO ou a BAGUNÇA".
.
20 de Setembro de 2010
Engº Celio Franco
Gestor do Portal Nosso São Paulo
Fale com o AutorOutros Artigos de Celio Franco
- Desde que citada a fonte e mantido como está, esse texto pode ser livremente republicado e divulgado -
![]() |
Portal Nosso São
Paulo - www.nossosaopaulo.com.br
|