sexta-feira, julho 31, 2015

Gian Danton e Joe Bennet buscam financiamento de coletânea de terror

FotorCreated


Postado por Francylene Silva em 30-jul-2015

Com forte influência de nomes como Alan Moore, Neil Gaiman e Dave Mackean, dois rapazes de Belém do Pará, Gian Danton e Bené Nascimento (mais conhecido como Joe Bennett) revolucionaram no início da década de 1990 os quadrinhos nacionais de terror com histórias tão densas que foram rejeitadas por algumas editoras por considerarem pesadas demais. Porém as histórias conquistaram o público. Como as revistas eram vendidas dentro de sacos plásticos, para identificarem as que possuiam material da dupla, eles colocaram uma margem negra nas páginas, visível até mesmo com elas fechadas.

Por esse motivo a dupla escolheu o nome Margem Negra para o novo projeto, que tem como finalidade resgatar as histórias publicadas em diversas revistas , como Mephisto – Terror Negro, A hora do Crepúsculo e Calafrio, entre outras. Para isso, uma campanha de financiamento coletivo no site Catarse foi criada almejando o valor de R$21mil correspondente ao orçamento de todas as etapas de produção e distribuição do livro. Leia mais 
 
Clique aqui e apoie o projeto Margem Negra. 

Divertidamente


Divertidamente é um dos melhores filmes do ano - e certamente um dos melhores da Pixar, uma obra-prima que certamente irá constar ao lado de Toy Story e UP na categoria de melhores desenhos animados de todos os tempos. Numa época em que os filmes para adultos se dividem entre o pseudo-intelectalismo hermético e a ação desenfreada sem roteiro, é bom ver um filme que consegue ser inteligente, divertido, ter ação, ter emoção e ser extremamente criativo. A ideia de fazer uma história que se passa quase que toda na mente da personagem foi genial e o resultado idem. Até mesmo do ponto de vista psicológico o filme acerta: a psicologia cada vez mais descobre que não temos uma única personalidade, mas somos divididos em várias personas. 
Enfim: recomendadíssimo.

sexta-feira, julho 24, 2015

Projeto no Catarse resgata HQs de terror




No início da década de 1990 uma dupla de quadrinistas de Belém do Pará revolucionou o terror nacional. Com influência de Alan Moore e Neil Gaiman, Gian Danton e Joe Bennett faziam histórias pesadas, em que tripas se misturavam com horror psicológico. Essas histórias foram publicadas em diversas revistas, mas nunca foram reunidas. Resgatar esses quadrinhos em um álbum de luxo é o objetivo do projeto Margem Negra, que busca apoio no Catarse (https://www.catarse.me/pt/margemnegra).
Joe Bennet, que na época assinava Bené Nascimento, é famoso nacionalmente, tendo desenhado quase todos os personagens da Marvel e da DC. Gian Danton é roteirista premiado, autor de vários livros sobre quadrinhos, entre eles o Como escrever quadrinhos (Marca de Fantasia) lançado recentemente.

O resgate das histórias é resultado da junção das editoras Devaneio e ZnorT! Como muitas dessas histórias estavam perdidas, contou-se com o apoio de fãs, que escanearam as HQs e enviaram para que fosse incluídas no álbum. Além disso, várias histórias só foram resgatadas graças ao acervo da Gibiteca de Curitiba. Entre as atrações há até uma história da época, inédita, por ter sido recusada por vários editores em razão de unir super-heróis e terror.
O álbum, que a princípio terá 130 páginas (pode ter mais, se forem atingidas as metas estendidas) trará também uma história inédita escrita por Gian Danton e desenhada por Joe Bennett.
Quem apoiar o projeto receberá várias recompensas, de álbuns de quadrinhos e livros a originais da história inédita.

SERVIÇO
ÁLBUM MARGEM NEGRA

quinta-feira, julho 23, 2015

Linguagem binária



Para visualizar a noção de que a quantidade de informações está relacionada à multiplicidade de possibilidades de respostas (variedade), imagine que os quadrados abaixo são caixas, uma das quais está cheia de bombons. A outra, vazia. Você é desafiado a descobrir qual das duas está cheia de guloseimas, e deve fazer perguntas cujas sejam sim ou não.

A
B


Vamos imaginar que você pergunte: é a A? A resposta pode ser sim ou não.
              Nesse caso, a informação é dada entre duas respostas possíveis do tipo sim ou não. É um bit. Trata-se do que ocorre, por exemplo, com o interruptor de luz, que só permite duas possibilidades de mensagens: aceso/apagado.
              A descoberta da caixa premiada teria muito mais informação se as possibilidades fossem quatro, pois a incerteza seria maior.

A
B
C
D
             

              A quantidade de informação dobraria no caso abaixo.

A
B
C
D
E
F
G
H

              Agora a resposta correta seria uma entre oito possibilidades.
               Para descobrir qual é a caixa premiada, o concorrente poderia fazer perguntas do tipo sim/não (bit). Como atacar o problema?
              Uma possibilidade seria ir perguntando em seqüência:
              É o A?
              É o B?
              É o C?
              Esse método, no entanto, se revelaria desgastante se a resposta correta fosse o H. Seriam necessárias sete perguntas para descobrir a solução.
              Imaginemos, no entanto, que só sejam permitidas três perguntas. A Teoria da Informação propôs uma fórmula otimizada para se chegar à solução. Bastaria dividir o conjunto em dois grupos: A-D e E-F.
              Assim, a primeira pergunta seria:
              A caixa premiada está no conjunto A-D?
              Resposta: Não.
              Conclui-se que a caixa está no conjunto E-H. A segunda pergunta dividiria o conjunto em dois grupos (bits):
              A caixa está no conjunto E-F?
              Resposta: Sim.
              A pergunta seguinte seria simples. Afinal, a caixa só pode ser E ou F.
              Basta indagar:
              É o F?
              Se a resposta for sim, F é a premiada. Se for não, será a E.
              Foram necessárias três perguntas para se chegar à solução, portanto a resposta teria três bits.
              Utilizando-se desse método, a teoria da informação conseguiu calcular a quantidade de informação em cada mensagem. A linguagem binária tornou possível os computadores.
              Para transmitir uma mensagem ao computador, devemos codifica-la em conjuntos do tipo sim ou não em que 1 seria sim e 0 seria não.
              O número 9 em código binário fica: 1001.
              Para transmitir ao computador a imagem de um círculo basta montar uma tabela com diversos quadrados. O sim representa o quadrado preenchido e o não o vazio. Quanto maior a quantidade de quadrados, maior a resolução e maior a quantidade de bits.

quarta-feira, julho 22, 2015

A informação



              Parte essencial da cibernética, o estudo da informação foi consagrado pela Teoria da Informação (T.I).
              A T.I. foi criada pelo matemático norte-americano Claude Shannon para resolver problemas técnicos de transmissão de informação.
              Os engenheiros da época acreditavam que era apenas uma questão de tecnologia conseguir transmitir uma maior quantidade de mensagens telegráficas com maior rapidez. Shannon demonstrou que cada canal tem uma velocidade e uma quantidade limite de informações transmitidas. A partir de um certo ponto, a mensagem começa a ser dominada por ruídos que prejudicam a recepção.
              Shannon também tornou possível a construção de computadores digitais ao substituir o sistema decimal pelo sistema binário. Ele foi, provavelmente, o primeiro pesquisador a tentar uma definição científica do conceito de informação: “Informação é uma redução da incerteza, oferecida quando se obtém resposta a uma pergunta”. (apud Epstein, teoria da informação, 35)
              Vamos imaginar uma situação. Dois candidatos A e B estão disputando uma eleição.
              O eleitor não sabe quem é o vencedor e liga o rádio para obter essa informação.Se o locutor dissesse: “O Vencedor foi A ou B”, a mensagem seria totalmente redundante, pois o ouvinte já sabe que o vencedor foi um dos dois concorrentes.
              A mensagem “A venceu” seria informação, pois diminui a incerteza do receptor.
              Entretanto, só há informação quando ocorre variedade de possibilidades. Quanto maior a quantidade de respostas possíveis, maior a quantidade de informação.
              Se a eleição tiver um único concorrente, digamos A, a mensagem “A venceu" não teria qualquer informação.
              Por outro lado, se houvessem três candidatos com chance real de se eleger, a mensagem “A venceu” seria mais informativa.
              Quanto maior a quantidade de possibilidades, maior a dúvida e, portanto, maior a quantidade de informação da mensagem “A venceu”.
              Imaginemos que a mensagem seja “A, B e C empataram”. Essa notícia teria muito mais informação do que “A venceu”, pois é muito improvável que três candidatos tenham exatamente o mesmo número de votos.
              Quanto mais improvável um acontecimento, mais informação ele tem.
              A mensagem “Há um elefante nas florestas da Índia” tem pouquíssima informação, pois há uma grande probabilidade de haver elefantes nas selvas indianas.
              Entretanto, a mensagem “Há um elefante solta na Avenida Paulista” tem alta carga de informação, pois a chance de isso acontecer é mínima.
              A idéia de informação está sempre ligada a algo diferente, improvável, fora do normal.



              Parte essencial da cibernética, o estudo da informação foi consagrado pela Teoria da Informação (T.I).
              A T.I. foi criada pelo matemático norte-americano Claude Shannon para resolver problemas técnicos de transmissão de informação.
              Os engenheiros da época acreditavam que era apenas uma questão de tecnologia conseguir transmitir uma maior quantidade de mensagens telegráficas com maior rapidez. Shannon demonstrou que cada canal tem uma velocidade e uma quantidade limite de informações transmitidas. A partir de um certo ponto, a mensagem começa a ser dominada por ruídos que prejudicam a recepção.
              Shannon também tornou possível a construção de computadores digitais ao substituir o sistema decimal pelo sistema binário. Ele foi, provavelmente, o primeiro pesquisador a tentar uma definição científica do conceito de informação: “Informação é uma redução da incerteza, oferecida quando se obtém resposta a uma pergunta”. (apud Epstein, teoria da informação, 35)
              Vamos imaginar uma situação. Dois candidatos A e B estão disputando uma eleição.
              O eleitor não sabe quem é o vencedor e liga o rádio para obter essa informação.Se o locutor dissesse: “O Vencedor foi A ou B”, a mensagem seria totalmente redundante, pois o ouvinte já sabe que o vencedor foi um dos dois concorrentes.
              A mensagem “A venceu” seria informação, pois diminui a incerteza do receptor.
              Entretanto, só há informação quando ocorre variedade de possibilidades. Quanto maior a quantidade de respostas possíveis, maior a quantidade de informação.
              Se a eleição tiver um único concorrente, digamos A, a mensagem “A venceu não teria qualquer informação”.
              Por outro lado, se houvessem três candidatos com chance real de se eleger, a mensagem “A venceu” seria mais informativa.
              Quanto maior a quantidade de possibilidades, maior a dúvida e, portanto, maior a quantidade de informação da mensagem “A venceu”.
              Imaginemos que a mensagem seja “A, B e C empataram”. Essa notícia teria muito mais informação do que “A venceu”, pois é muito improvável que três candidatos tenham exatamente o mesmo número de votos.
              Quanto mais improvável um acontecimento, mais informação ele tem.
              A mensagem “Há um elefante nas florestas da Índia” tem pouquíssima informação, pois há uma grande probabilidade de haver elefantes nas selvas indianas.
              Entretanto, a mensagem “Há um elefante solta na Avenida Paulista” tem alta carga de informação, pois a chance de isso acontecer é mínima.
              A idéia de informação está sempre ligada a algo diferente, improvável, fora do normal.