quarta-feira, 23 de junho de 2010

Pornografia na internet, uma indústria de US$4,9 bilhões (infográfico)

Que a pornografia na internet é um big business, todos nós sempre soubemos. Mas olhar para as estatísticas é ainda mais impressionante, principalmente se levarmos em consideração que alguns dos dados aqui devem ser menor do que a realidade que os pesquisados querem admitir. São 24 milhões de sites pornográficos mundo afora, com 28 pessoas por segundo vendo porn. E você acha que é um privilégio dos homens? 1/3 dos usuários vendo pornografia na internet é de mulheres. 25% de todas as pesquisas realizadas nos mecanismos de busca é sobre o tema, e 35% do tráfego da rede também. O infográfico foi elaborado pelo Online Schools.

O poder do HTML5 (Apple HTML5 Showcase)

Como parte de sua argumentação de que o Flash não é mais necessário e que é possível se construir ótimas interfaces usando o HTML5, a Apple montou um pequeno showcase em seu site mostrando várias podersosas características da versão 5 do HTML. Impressionante como com o HTML5 fica tudo com cara de Apple ou tudo da Apple tem essa cara justamente porque usa o HTML5. Veja aqui o showcase. Para garantir uma boa experiência, é necessária a versão mais recente do Safari.

domingo, 13 de junho de 2010

Olha o Robot! - Itabuna - Ilheus - Eunapolis

O “crawler” da Google, também conhecido por Googlebot, é um “robot” que percorre todas as páginas da Internet e procede à sua indexação, segundo um algoritmo proprietário da empresa. Há varias coisas que podemos fazer para proceder à optimização dos sites e de que já se tratou noutros artigos.

Mas há algo extra que devemos considerar e que é muitas vezes esquecido, que é balizar as procuras do “crawler” atráves do ficheiro robots.txt e do atributo NoFollow, dando assim uma ajuda extra ao processo de formatação global dos conteúdos que o Googlebot vai ordenar e valorar.

E porque é isto tão importante? Por duas ordens de razões:

Primeiro porque não queremos que o Google misture nas SERP conteúdos “úteis” com excertos de publicidade ou outro material que nada tem a ver com o contexto da página;

Segundo porque a mistura de material que não tem a ver com o conteúdo diminui o peso relativo do que é relevante para efeitos de indexação (seja da página, seja do site no seu conjunto).

Se visitar as “Ferramentas para Webmasters” do Google ele apresenta uma lista das palavras-chave que o Googlebot encontrou no seu site, ordenadas de acordo com a sua frequência, juntamente com este comentário prévio:

“Seguem-se as palavras-chave mais comuns encontradas pelo Google ao rastrear o seu site. Estas devem reflectir o assunto do seu site.”

O que acontece é que, por variadíssimas razões é normal existirem no site diversas páginas ou blocos das mesmas que fogem ao respectivo assunto central, não tendo isto nada de invulgar ou injustificado: é o caso da publicidade, como já disse, pop-ups em javascript a chamar a atenção para outros assuntos, informação e conteudos vários que tendo uma relevância reduzida para o primeiro visitante podem ser úteis e interessantes para o visitante habitual, que já conhece bem qual o “core business” do site.

Os comentários e questões que as pessoas colocam, nomeadamente nas aplicações do tipo CMS também muitas vezes saem do contexto e diminuem a relevância dos conteúdos.

Ora estas situações podem ser remediadas, obrigando o robot a ficar pelo “sumo” das páginas, ignorando esses conteúdos “dispersantes”, contribuindo assim para melhorar o seu ranking no motor de busca.

1. Robots.txt: O que o crawler pode procurar1

O “robots.txt” é um ficheiro de texto que deve existir no directório raiz do site e que tem um conteúdo do tipo:

User-agent: * Allow [ou Disallow]: /ficheiro ou directório

podendo colocar-se tantas linhas quantas as necessárias com instruções de “allow” ou “disallow”, sendo que os ficheiros que contêm esta última instrução não serão indexados. O próprio Wordpress (para quem usa este CMS) recomenda os seguintes “disallows”:

Disallow: /cgi-bin Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache

O “agent” pode ser qualquer um (*) ou apenas, por exemplo, o “Googlebot”; sendo que neste caso o asterisco seria substituído por esta palavra. O “robots.txt” pode ainda conter instruções do tipo:

Disallow: /directorio_a/ Allow: /directorio_a/excepcao.html

É ainda possível, por exemplo, bloquear arquivos com determinadas extensões; por exemplo:

Disallow: /* .pdf$

Impediria a indexação de todos os documentos do tipo pdf.

Portanto o “robots.txt” determina o acesso que o crawler pode fazer ao blog ou site, permitindo o acesso a alguns ficheiros e impedindo aos que não interessam para a sua valorização. Se este ficheiro não existir, o acesso fica generalizado a todos os conteúdos; se não tiver nada para esconder / proteger das SERP não é grave, mas o seu material possivelmente não recebe todos os pontos possíveis em termos de optimização.

terça-feira, 8 de junho de 2010

O que é um Webmaster

Webmaster é o profissional que sabe operar as tarefas entre um computador e a Internet. O webmaster (se for o caso) recebe do webdesigner os arquivos (em disquete ou CD) do Site com o design pronto e já pré-configurados para ser colocado na Internet. Depois, insere algumas configurações como: incluir contador de acesso, registros em formulários e alguns outros registros de funcionamento. A palavra WebMaster é uma palavra de origem Inglesa, que se traduzindo ao português seria algo como Maestro Web. Porém, muitas vezes escutamos estas palavras: que sou WebMaster, ou que conheço um WebMaster e não sabemos exatamente qual é a função específica destas pessoas. Um WebMaster é a pessoas encarregada de um site, seria o diretor de uma empresa, é a pessoa que decide a tecnologia que será utilizada, decide, os servidores e a estrutura em geral. Para começar um WebMaster é uma pessoa responsável, é o responsável propriamente dito de Todo um Site, já que é a pessoa que tem por exemplo, os códigos ou passwords para fazer modificações na página. É a única pessoa autorizada a dizer, caso não lhe agrade o que entra ou não entra em relação à estrutura ou aos conteúdos do site. WebMasters X Desenhadores Gráficos. Não temos que confundir os dois, os WebMaster são WebMaster propriamente dito, e um desenhador é um desenhador, o qual, em nosso site se não sabemos de desenho damos o trabalho para os especializados no assunto, já que um WebMaster abarca outros temas como explicamos anteriormente e tem outras responsabilidades. Muitas vezes nós, os WebMaster queremos dar nosso toque de desenho a nosso site, claro que podemos fornecer muitas coisas para os encarregados do desenho, mas uma recomendação muito importante: não decida no tema de desenho, temos que ter para armar nosso site, um encarregado na área, um expert no tema de desenho para que nós somente nos dediquemos a nosso trabalho que é o de armar tudo o que o grupo arma, em desenho e conteúdo. Uma coisa essencial que temos que ver na hora de começar a trabalhar em nosso site com os desenhadores é de explicar-lhes os servidores nos quais se vão trabalhar, explicar com porcentagens as tecnologias que convém e as que não, e enfim, adapta-los ao que nós temos. WebMasters e segurança Se falamos que os WebMaster são as pessoas que estão encarregadas de ter os códigos de acesso à página, temos que falar de que também pode ser o administrador do site, portanto tem que ter conhecimentos amplos sobre a segurança na informática para proteger o site de qualquer ataque. Também nós, os WebMasters têm que tratar de que toda a informação que corra pelo site que sejam o mais privadas possíveis, temos que assegurarmos sempre de que nossos Server sejam seguros para não sofrermos ataques de hackers com más intenções e que prejudicam nosso trabalho. Mas enfim, quem pode se chamar WebMaster? Para ser WebMaster não há que estudar nenhum curso universitário, e nem nenhum outro tipo de curso para tornarmos um WebMaster. Os WebMaster são pessoas altamente capacitadas no âmbito da Internet pelo qual se conhece a fundo as tecnologias do mercado, são os que em parte técnica sabem bem sobre o que está trabalhando, é a parte mais importante do site porque são as pessoas que unem a todas as pessoas que trabalham, as do conteúdo, os desenhadores, os notários, e etc, para fazer alguma publicação passam por nós, os WebMaster. Um ponto fundamental que temos que levar muito em conta para ser WebMaster é a responsabilidade que temos, já que se lemos o que dizia acima de que somos a pessoa mais importante do site, temos que estar sempre prontos para qualquer desafio, e temos que enfrentar com responsabilidade nosso posto de trabalho. Funções 1. Fazer a manutenção de um Site. (atualizações e modificações) 2. Cadastrar o Site em buscadores nacionais e internacionais. 3. Verificar com frequência se o Site está em perfeito funcionamento. 4. Administrar um web site. Se você necessita de um Webmaster no sul da Bahia, Ligue: (73) 3211.5883