terça-feira, dezembro 06, 2016

A informação

            Parte essencial da cibernética, o estudo da informação foi consagrado pela Teoria da Informação (T.I).
                A T.I. foi criada pelo matemático norte-americano Claude Shannon para resolver problemas técnicos de transmissão de informação.
                Os engenheiros da época acreditavam que era apenas uma questão de tecnologia conseguir transmitir uma maior quantidade de mensagens telegráficas com maior rapidez. Shannon demonstrou que cada canal tem uma velocidade e uma quantidade limite de informações transmitidas. A partir de um certo ponto, a mensagem começa a ser dominada por ruídos que prejudicam a recepção.
                Shannon também tornou possível a construção de computadores digitais ao substituir o sistema decimal pelo sistema binário. Ele foi, provavelmente, o primeiro pesquisador a tentar uma definição científica do conceito de informação: “Informação é uma redução da incerteza, oferecida quando se obtém resposta a uma pergunta”. (apud Epstein, teoria da informação, 35)
                Vamos imaginar uma situação. Dois candidatos A e B estão disputando uma eleição.
                O eleitor não sabe quem é o vencedor e liga o rádio para obter essa informação.Se o locutor dissesse: “O Vencedor foi A ou B”, a mensagem seria totalmente redundante, pois o ouvinte já sabe que o vencedor foi um dos dois concorrentes.
                A mensagem “A venceu” seria informação, pois diminui a incerteza do receptor.
                Entretanto, só há informação quando ocorre variedade de possibilidades. Quanto maior a quantidade de respostas possíveis, maior a quantidade de informação.
                Se a eleição tiver um único concorrente, digamos A, a mensagem “A venceu não teria qualquer informação”.
                Por outro lado, se houvessem três candidatos com chance real de se eleger, a mensagem “A venceu” seria mais informativa.
                Quanto maior a quantidade de possibilidades, maior a dúvida e, portanto, maior a quantidade de informação da mensagem “A venceu”.
                Imaginemos que a mensagem seja “A, B e C empataram”. Essa notícia teria muito mais informação do que “A venceu”, pois é muito improvável que três candidatos tenham exatamente o mesmo número de votos.
                Quanto mais improvável um acontecimento, mais informação ele tem.
                A mensagem “Há um elefante nas florestas da Índia” tem pouquíssima informação, pois há uma grande probabilidade de haver elefantes nas selvas indianas.
                Entretanto, a mensagem “Há um elefante solta na Avenida Paulista” tem alta carga de informação, pois a chance de isso acontecer é mínima.

                A idéia de informação está sempre ligada a algo diferente, improvável, fora do normal. 

Sem comentários:

Enviar um comentário

Nota: só um membro deste blogue pode publicar um comentário.