Parte
essencial da cibernética, o estudo da informação foi consagrado pela Teoria da
Informação (T.I).
A
T.I. foi criada pelo matemático norte-americano Claude Shannon para resolver
problemas técnicos de transmissão de informação.
Os
engenheiros da época acreditavam que era apenas uma questão de tecnologia
conseguir transmitir uma maior quantidade de mensagens telegráficas com maior
rapidez. Shannon demonstrou que cada canal tem uma velocidade e uma quantidade
limite de informações transmitidas. A partir de um certo ponto, a mensagem
começa a ser dominada por ruídos que prejudicam a recepção.
Shannon
também tornou possível a construção de computadores digitais ao substituir o
sistema decimal pelo sistema binário. Ele foi, provavelmente, o primeiro
pesquisador a tentar uma definição científica do conceito de informação:
“Informação é uma redução da incerteza, oferecida quando se obtém resposta a
uma pergunta”. (apud Epstein, teoria da informação, 35)
Vamos
imaginar uma situação. Dois candidatos A e B estão disputando uma eleição.
O
eleitor não sabe quem é o vencedor e liga o rádio para obter essa informação.Se
o locutor dissesse: “O Vencedor foi A ou B”, a mensagem seria totalmente
redundante, pois o ouvinte já sabe que o vencedor foi um dos dois concorrentes.
A
mensagem “A venceu” seria informação, pois diminui a incerteza do receptor.
Entretanto,
só há informação quando ocorre variedade de possibilidades. Quanto maior a
quantidade de respostas possíveis, maior a quantidade de informação.
Se a
eleição tiver um único concorrente, digamos A, a mensagem “A venceu" não teria
qualquer informação.
Por
outro lado, se houvessem três candidatos com chance real de se eleger, a
mensagem “A venceu” seria mais informativa.
Quanto
maior a quantidade de possibilidades, maior a dúvida e, portanto, maior a
quantidade de informação da mensagem “A venceu”.
Imaginemos
que a mensagem seja “A, B e C empataram”. Essa notícia teria muito mais
informação do que “A venceu”, pois é muito improvável que três candidatos
tenham exatamente o mesmo número de votos.
Quanto
mais improvável um acontecimento, mais informação ele tem.
A
mensagem “Há um elefante nas florestas da Índia” tem pouquíssima informação,
pois há uma grande probabilidade de haver elefantes nas selvas indianas.
Entretanto,
a mensagem “Há um elefante solta na Avenida Paulista” tem alta carga de
informação, pois a chance de isso acontecer é mínima.
A
idéia de informação está sempre ligada a algo diferente, improvável, fora do
normal.
Parte
essencial da cibernética, o estudo da informação foi consagrado pela Teoria da
Informação (T.I).
A
T.I. foi criada pelo matemático norte-americano Claude Shannon para resolver
problemas técnicos de transmissão de informação.
Os
engenheiros da época acreditavam que era apenas uma questão de tecnologia
conseguir transmitir uma maior quantidade de mensagens telegráficas com maior
rapidez. Shannon demonstrou que cada canal tem uma velocidade e uma quantidade
limite de informações transmitidas. A partir de um certo ponto, a mensagem
começa a ser dominada por ruídos que prejudicam a recepção.
Shannon
também tornou possível a construção de computadores digitais ao substituir o
sistema decimal pelo sistema binário. Ele foi, provavelmente, o primeiro
pesquisador a tentar uma definição científica do conceito de informação:
“Informação é uma redução da incerteza, oferecida quando se obtém resposta a
uma pergunta”. (apud Epstein, teoria da informação, 35)
Vamos
imaginar uma situação. Dois candidatos A e B estão disputando uma eleição.
O
eleitor não sabe quem é o vencedor e liga o rádio para obter essa informação.Se
o locutor dissesse: “O Vencedor foi A ou B”, a mensagem seria totalmente
redundante, pois o ouvinte já sabe que o vencedor foi um dos dois concorrentes.
A
mensagem “A venceu” seria informação, pois diminui a incerteza do receptor.
Entretanto,
só há informação quando ocorre variedade de possibilidades. Quanto maior a
quantidade de respostas possíveis, maior a quantidade de informação.
Se a
eleição tiver um único concorrente, digamos A, a mensagem “A venceu não teria
qualquer informação”.
Por
outro lado, se houvessem três candidatos com chance real de se eleger, a
mensagem “A venceu” seria mais informativa.
Quanto
maior a quantidade de possibilidades, maior a dúvida e, portanto, maior a
quantidade de informação da mensagem “A venceu”.
Imaginemos
que a mensagem seja “A, B e C empataram”. Essa notícia teria muito mais
informação do que “A venceu”, pois é muito improvável que três candidatos
tenham exatamente o mesmo número de votos.
Quanto
mais improvável um acontecimento, mais informação ele tem.
A
mensagem “Há um elefante nas florestas da Índia” tem pouquíssima informação,
pois há uma grande probabilidade de haver elefantes nas selvas indianas.
Entretanto,
a mensagem “Há um elefante solta na Avenida Paulista” tem alta carga de
informação, pois a chance de isso acontecer é mínima.
A
idéia de informação está sempre ligada a algo diferente, improvável, fora do
normal.