Friday, June 22, 2012

Splunk

Splunk recoge, índices y aprovecha todos los datos rápidos de la máquina en movimiento generadas por las aplicaciones, servidores y dispositivos-físicos, virtuales y en la nube. Solucionar problemas de aplicación e investigar los incidentes de seguridad en cuestión de minutos en lugar de horas o días, evitar la degradación del servicio o cortes de energía, garantizar el respeto a menor costo y obtener nuevas perspectivas de negocio.

Descargar Splunk de forma gratuita. Usted conseguirá todas las características para empresas de Splunk por 60 días y que puede indexar hasta 500 megabytes de datos por día. Después de 60 días, o en cualquier momento antes de esa fecha, puede convertir a una licencia perpetua gratis o comprar una licencia de Empresa para continuar utilizando la funcionalidad ampliada diseñada para implementaciones empresariales multi-usuario.
Seleccione su plataforma a continuación, descargar e iniciar splunking hoy.

Splunk es inteligencia operacional

Haga que sus datos de IT sean útiles para toda la empresa.
Splunk es la herramienta de Inteligencia Operacional, un motor de búsqueda, el Google de IT, que permite obtener valor de toda la información que generan las aplicaciones, servidores, dispositivos de red, de seguridad y otros sistemas que hacen que la empresa funcione.
Es más que capturar logs: es aprovechar los datos de configuración, datos de APIs, colas de mensajes, eventos de cambios, la salida de los comandos de diagnóstico, y mucho más.
Splunk permite recoger, indexar y sacar el máximo provecho de todos los datos de IT (históricos y en tiempo real) para generar la información útil que todos los departamentos de la empresa necesitan: cumplimiento, marketing, seguridad, business intelligence…

  • Es un software, no un appliance: descárgalo gratis, sin compromiso, e instálalo en 5 minutos.
  • Úsalo en un laptop y después escálalo a todo el datacenter.
  • Maneja Terabytes de datos repartidos en uno o varios datacenters aprovechando su arquitectura escalable basada en MapReduce.
  • Define roles y usuarios para acceder a los datos capturados: integración con AD/LDAP y Single Sign-On, ofuscación de datos (por ejemplo, de tarjetas de crédito),…
  • Indexa datos en tiempo real desde cualquier fuente: desde los servidores, el syslog de los dispositivos de red, o los cambios en el registro de Windows, y almacénalos comprimidos, firmados y preparados para cualquier auditoría.
  • Correla los datos en base a cuándo fueron generados, a transacciones realizadas, realiza búsquedas dentro de otras búsquedas, o aprovecha datos de fuentes externas a Splunk (desde herramientas SIEM, por ejemplo).
  • Genera informes (reports) y paneles (dashboards) sin necesidad de desplegar otras herramientas.
Aproveche las aplicaciones gratuitas ya desarrolladas, o bien defina las suyas propias: Microsoft Exchange, Cisco, WebSphere, BlueCoat, Palo Alto, OSSEC,… y también otras para VMWare, Citrix,…

Qué es y para qué sirve un Análisis Funcional

http://www.conzentra.com/blog/para-que-sirve-un-analisis-funcional, Autor:Toni Garrido,
20 junio 2012
Hoy vamos a hablar de la importancia de un Análisis Funcional en un proyecto informático.
Esta fase es la primera que debe producirse en cualquier proyecto informático en el que se desee un resultado óptimo. El objetivo de esta fase es poder acordar entre el cliente y la empresa desarrolladora el alcance final del proyecto basándose en la oferta entregada y aceptada anteriormente. La principal diferencia con la oferta es que en este análisis se entra mucho mas al detalle de cada uno de los desarrollos a realizar.
En Conzentra basamos nuestro Análisis Funcional en 2 partes:
  • Parte de FrontEnd donde se incluye la Arquitectura de la Información: Esta parte es indispensable para empezar el diseño de la pagina y lo entregado es un documento con unos wireframes donde se estructura toda la información a mostrar en la web, organizada de la manera más optima para cumplir el objetivo de la misma. Dependiendo los objetivos se prioriza la usabilidad, el posicionamiento o la conversión aunque desde Conzentra siempre intentamos encontrar el equilibrio entre estos objetivos.
  • Parte de BackEnd donde se especifican todos los métodos a utilizar, usos de backoffice y casos de uso de la aplicación: Esta parte es mucho más técnica y en ella se definen todos los procesos a realizar más ocultos para el usuario (p.e. Importación de productos a una eCommerce, Generación de facturas, método de conexión a un sistema externo como un ERP…). Para esto se utilizan técnicas UML de casos de uso, definiendo así todos los procesos posibles que un usuario tiene con la aplicación.
Ambas van muy unidas y una complementa perfectamente a la otra. En esta fase se necesita muchísima colaboración por parte del cliente ya que es quién conoce realmente los objetivos del proyecto y es importante estar de acuerdo para el bien del resultado del proyecto final.

Wednesday, June 13, 2012

Google Drive

Google Drive es un servicio de almacenamiento de archivos en línea. Fue introducido por Google el 24 de abril de 2012. Google Drive actualmente es un reemplazo de Google Docs que ha cambiado su dirección de enlace de docs.google.com por drive.google.com entre otras cosas. Cada usuario cuenta con 5 Gigabytes de memoria gratuitos para almacenar sus archivos, ampliables mediante pago. Está disponible para computadoras y portátiles Mac, Android y próximamente para iPhone y iPad.
Con el lanzamiento de Google Drive, Google ha aumentado el espacio de almacenamiento de Gmail a 10 GB.

Google Drive
Licencia:
Gratis
Idioma:
Español
Desarrollador:
Sistema operativo
WinXP/Vista/7/8
En Softonic desde:

Ojo con lo que subes a Google Drive... y en general a la 'nube'

  • Cuando subimos archivos a la Red ¿cuántos derechos sobre ellos 'cedemos'?
  • Con 'nube' o sin 'nube', conviene hacer 'backups' fuera de Internet
El lanzamiento de Google Drive, el 'disco duro virtual' del gigante de Internet, vuelve a poner de manifiesto los posibles riesgos legales de almacenar archivos en Internet, en la llamada 'nube'. ¿Qué pasa con los derechos sobre nuestro material?
Esta pregunta se la han hecho en el sitio web especializado The Verge. En todos los servicios de almacenamiento en red, como Google Drive, Dropbox o Skydrive, de Microsoft, el usuario mantiene los derechos sobre su material salvo en algunas ocasiones, que cede derechos de uso, modificación, reproducción y distribución del material sobre todo para 'garantizar' el funcionamiento del servicio.
Esta cesión de derechos se produce con la aceptación de las condiciones de uso de los servicios, algo que sucede con el mero hecho de darse de alta en los mismos. En España, la Ley de Propiedad Intelectual establece que para ceder derechos de autor 'inter vivos' es necesario el consentimiento escrito (artículos 43 y siguientes).
"El problema", comenta Carlos Sánchez Almeida, abogado especializado en tecnología y autor del blog Jaque perpetuo, "es que la aceptación se realiza mediante un simple clic, pocos se leen las condiciones de servicio y esto puede generar indefensión al autor".

Condiciones de Google

Así, el recién estrenado Google Drive se acoge a las condiciones generales de Google, bastante generosas a la hora de delimitar la licencia que el usuario concede al gigante de la Red sobre su propio material (vídeos, fotos, textos...).
Las condiciones del servicio de Google dicen, literalmente: "Algunos de nuestros servicios te permiten enviar contenido. Si lo haces, seguirás siendo el titular de los derechos de propiedad intelectual que tengas sobre ese contenido. En pocas palabras, lo que te pertenece, tuyo es". Queda claro que uno retiene la propiedad intelectual de lo que suba.
Sin embargo, al subir contenido a sus servidores "concedes a Google (y a sus colaboradores) una licencia mundial para usar, alojar, almacenar, reproducir, modificar, crear obras derivadas (...), comunicar, publicar, ejecutar o mostrar públicamente y distribuir dicho contenido". "Google", puntualiza, "usará los derechos que le confiere esta licencia únicamente con el fin de proporcionar, promocionar y mejorar los Servicios y de desarrollar servicios nuevos".
En este caso, puntualiza Almeida, lo que plantea el gigante de Internet es "casi un contrato de edición encubierto en forma de términos de uso", por lo que "con arreglo a la legislación de consumo en España se deberia de tomar estas cláusulas como no puestas".
Mientras, la compañía insiste en que "no reclamama la propiedad o control sobre el contenido que el usuario almacena en Google Drive", según una nota, en la que vuelve a defender sus condiciones de uso. "Aconsejamos leer en su totalidad nuestros términos de uso", insiste. "En ellos se especifica que los usuarios que deciden compartir sus archivos con otros, previamente nos han dado el permiso para mostrar esos archivos a otros y gracias a ese permiso nosotros podemos dar la ayuda técnica (alojamiento, almacenamiento, traducción, etc.) y el formato adecuado, en función de las distintas pantallas donde se vayan a mostrar esos archivos", puntualiza.

Otros servicios en la 'nube'

Dropbox es quizá más específico a la hora de subrayar que uno tiene todos los derechos sobre lo que sube a sus servidores. "Usted conservará la plena propiedad de sus pertenencias, no nos atribuimos la propiedad de ninguna de ellas", afirma en sus condiciones de uso. "Las presentes Condiciones no nos otorgan ningún derecho sobre sus pertenencias ni ninguna propiedad intelectual, con excepción de los derechos limitados que son necesarios para administrar los servicios".
Este servicio estima que "es posible que necesite autorización para realizar las actividades que el usuario solicite con sus pertenencias, por ejemplo, alojar sus archivos o bien compartirlos a su criterio", tales como vistas previas de documentos o copias de seguridad. Y este permiso se extiende "a terceros de confianza" a los que subcontratan espacio de almacenamiento, como Amazon. Estas excepciones se mencionan específicamente.
Por su parte, Skydrive de Microsoft también respeta los derechos de autor del material que los particulares suben a la 'nube', con similares excepciones. "Microsoft no reclama la propiedad del contenido que usted proporcione en el servicio, excepto de aquél cuya licencia le haya concedido. El contenido seguirá siendo de su propiedad", se puede leer en las condiciones de servicio de Microsoft.
Asimismo, añade que el usuario "entiende que Microsoft puede necesitar usar, modificar, adaptar, reproducir, distribuir y mostrar contenido publicado en el servicio exclusivamente hasta el límite necesario para prestar el servicio, y por la presente concede a Microsoft estos derechos".
Box tiene unas condiciones de uso similares. "Al registrarse para utilizar los servicios", se puede leer en el texto, "usted entiende y reconoce que Box y sus contratas mantienen una licencia irrevocable, libre de 'royalties', aplicable globalmente, para utilizar, copiar y mostrar públicamente el contenido con el único propósito de proporcionar a los servicios para los que tiene registrado", aunque el usuario "sigue manteniendo todos los derechos de propiedad sobre cualquier contenido que proporcione".
Otros servicios de almacenamiento remoto de datos, como Rapidshare o Minus ni siquiera recogen en sus condiciones de uso apartado alguno sobre los derechos de propiedad de los contenidos, lo que se entiende como que el propietario los conserva todos y no está obligado a ceder ninguno por defecto.
En cualquier caso, Almeida cree que el consejo más efectivo para evitar futuros problemas de propiedad es la realización de 'backups' o copias de seguridad fuera de la Red.

Sunday, June 10, 2012

Employer branding y/o Embajador de la Marca On-line y Off-line


‘Employer branding’

Invertir en las personas es lo que esconden las políticas de employer branding, que no es otra cosa que la gestión de la marca para atraer y retener talento. Este concepto, que transmite el mensaje y la filosofía de ‘el mejor lugar para trabajar’, se ha popularizado durante años con Google.

Por Montse Mateos
Con las cifras de desempleo que se manejan actualmente, ¿tiene sentido hablar de employer branding? La respuesta de Casado es que sí, “porque la gente buena sigue trabajando, está atónita y está perdiendo esa confianza necesaria. Y por otra parte, entre los desempleados escasean las personas con talento suficiente”. Por estas razones, las organizaciones más que nunca deben asumir su función de creadores de marca. Para ello, las áreas de márketing, recursos humanos y comunicación deben ir de la mano. La esencia, según Casado, reside en las tres P: place, price y promotion. “Las empresas deben crear un concepto auténtico como Google para que haya más alegría y donde el respeto y la obligación sean los elementos centrales. En lo que se refiere al price, la compensación tiene que tener una parte emocional. Y, por último, las empresas deben profesionalizar la parte de promoción y desarrollo para que, de esta manera, los empleados se conviertan en verdaderos embajadores de la marca”.
Algunas compañías como Avon Cosmetics, Banesto, Janssen-Cilag, Kellogs o NH Hoteles aplican las herramientas de employer branding para dar solución a distintos problemas estratégicos. Todas ellas explican su metodología en Employer branding, un libro coordinado por PeopleMatters.
Las experiencias de estas organizaciones confirman que la comunicación, el márketing y la gestión de personas tienen que unirse para lograr un objetivo común: captar y fidelizar a los mejores. Por ejemplo, AVON recurrió a los medios de comunicación masivos para el reclutamiento de nuevas distribuidoras. Y para fidelizar a sus empleados, NH Hoteles puso en marcha un programa de reconocimiento interno destinado a premiar, mediante créditos canjeables por noches de hotel aquellas ideas de los empleados que ayuden a cumplir el plan estratégico o que mejor reflejen los valores de la compañía. Iniciativas de este tipo contribuyen a aumentar la satisfacción y el compromiso de los empleados a través de la gestión. Unos valores que se traducen en resultados: Hace tiempo Mark & Spencer aumentó sus ventas un 3% al elevar la satisfacción de sus empleados un 1%.
Reclutar a través de los nuevos soportes
Las redes sociales y profesionales han permitido a las empresas llegar a sus empleados y a sus candidatos. Esos puntos de encuentro online constituyen la carta de presentación para muchas organizaciones y, en ocasiones, se convierten en un medio de reclutamiento. Es lo que se denomina ‘recruitment márketing’. El libro ‘Employer branding’ recoge algunas de las claves para transmitir un mensaje a través de estos nuevos soportes: ser directos, claros y muy concisos; ser relevantes para el ‘target’; que reflejen los intereses de la audiencia; ser sinceros y honestos, huyendo de los tópicos publicitarios; y, sobre todo, ser transparentes y evitar la letra pequeña.

SOPA: LAS AVENTURAS DE LOS AUTORES DETRÁS DEL ESPEJO DE ALICIA


El mundo ha cambiado gracias a la tecnología, Internet se ha convertido en una suerte de lenguaje verde y no son pocos los empresarios que desean beber sangre de un dragón para poder entender el lenguaje de los pájaros, para comprender su entorno de la misma forma que lo hacían los sabios antiguos.
Hace 15 años ningún empresario de los que consideramos exitosos “de la vieja economía” hubiese invertido en un portal de tecnología para dejar mensajitos de 140 caracteres, o en otro que permite al usuario levantar sus fotos de vacaciones para que sus amigos coloquen comentarios divertidos.
Sin dudas existe un problema de transición muy grave para comprender el lenguaje de los negocios en un mundo en donde el contenido es de la gente. Nadie imaginó una revolución como Egipto organizada desde Twitter, nadie podía imaginar un concurso de bandas que pudiese convocar a 1900 bandas en un país como Argentina, en Músicos 3.0, organizado por Fiction City, Claro T4F.
Vivimos en un mundo en donde las decisiones se toman en tiempo real, en donde el usuario tiene el control y en donde valor del contenido es efímero ante la velocidad en la que se reproducen y crean nuevos contenidos.
La ley SOPA ha sido una expresión de impotencia de una cultura sobrepasada por la masa de consumidores. Tal como escribió Lewis Carroll en Alicia detrás del Espejo, uno de los libros más celebres escritos en lenguaje verde, los habitantes del reino de la Reina Roja deben correr rápidamente para quedar en el mismo lugar en el que están, por que su entorno avanza a la par de ellos.
La industria del libro y la industria discográfica ha sido sobrepasada por su entorno, por mantenerse estática en los últimos 200 año, la zona de confort que les brindó ganancias por miles de millones de dólares, fue metabolizada por un nuevo movimiento social, que yo llamo la “Social Power” y viene de la mano de las redes sociales sustentadas por las tecnologías móviles.
Las industrias del libro y discográficas nunca se dieron cuenta que su entorno los dejaba atrás, y si lo vieron no corrieron en el sentido correcto.
Un teléfono conectado a una prestadora de servicios telefónicos, es solo un teléfono, conectado a una red social es una plataforma de ventas.
La nueva cultura digital, aceleró los procesos, hoy el autor y el lector navegan juntos las mismas páginas web, la distancia entre un cantante y su fan es de solo un clic.
Primero se adaptó el público al nuevo entorno, después se adaptarán los artistas, y por último nacerá una nueva visión legal para la propiedad intelectual, pero tal vez, cuando este proceso se complete, el consumidor volverá a avanzar y esa ley vuelva a ser inadecuada.

La Geolocalización es mucho más que Foursquare



 
Las redes sociales cada vez están adquiriendo más protagonismo para las empresas y autónomos. Todos conocemos los beneficios que tanto unos como otros pueden obtener de las plataformas sociales, ya sean en términos de visibilidad o de posicionamiento web y de refuerzo de imagen de marca.

A las ya archiconocidas redes sociales generalistas, a saber, Facebook, twitter, las profesionales, como LinkedIn, o a las temáticas, cada vez más se unen empresas que pretenden aprovechar al máximo el Social Media, y hacen de la Geolocalización una herramienta muy poderosa de marketing.

Gracias a la geolocalización los negocios pueden crear estrategias basadas en la localización de los mismos, y es una manera de publicitarse barata, ya que, con solo registrar nuestro negocio en esta red social ya seremos visibles para otros usuarios. Además, los usuarios mismos son los que hacen publicidad de los negocios cuando comparten sus check-ins en las diferentes plataformas sociales y mediante sus comentarios.

Sin duda,  Foursquare es una herramienta muy útil, pero, la geolocalización no solo es esto.

No solo Foursquare conforma la geolocalización.

Un elemento muy utilizado en geolocalización son los SIG, Sistemas de Información Geográficos, o los GIS, según sus siglas en inglés, que responden a Geographic Information System.

Estos sistemas consisten en la integración de hardware, software y diferentes datos geográficos, y permiten recopilar información para analizar estos datos posteriormente, con el objeto de resolver problemas de gestión geográfica.

Respecto a sus usos, podemos destacar la información científica, arqueología, cartografía o planificación urbana, ya que en todos estos ámbitos tiene una gran importancia el componente de localización.

La base de datos contiene información geográfica que se asocia a los objetos en un mapa digital con un componente común: es decir, podemos conocer las propiedades de un objeto señalándolo y, consultando la base de datos, podemos conocer su cartografía, lo que puede resultar muy útil para conocer aspectos desconocidos de un lugar o una edificación.

Para los negocios, es innegable, presentan una gran multitud de beneficios, y para los usuarios, también, puesto que ambos pueden acceder a ella de forma sencilla. Los negocios pueden conseguir mayor visibilidad, y los usuarios pueden localizar diferentes lugares de manera más fácil. También es una manera de ahorrar costes, ya que con la geolocalización podemos hacernos publicidad sin necesidad de ningún tipo de folleto, puesto que ya estamos en la red, que conforma el mayor escaparate.

Las redes sociales no solo son Facebook y Twitter. El ecosistema social también está formado por nuevas tecnologías que se pueden compartir mediante estos canales, y, en este caso, podríamos decir que la geolocalización no sólo es ganar insignias en Foursquare y robar alcaldías, sino que, existen herramientas más desconocidas e igualmente útiles, como los SIG.

¿Conoces alguno?

Los nuevos cambios en el algoritmo de Google remueven a los SEO.

Los nuevos cambios en el algoritmo de Google remueven a los SEO
28 de mayo de 2013 | 19:59 CET

El posicionamiento de una página web es una lucha continua entre lo que hacen los especialistas en posicionar en los buscadores, los SEO y los índices de calidad que tiene el buscador, en este caso Google. Hace apenas una semana Google lanzó Penguin 2.0, la nueva versión de su fórmula para medir la calidad de los sitios web y posicionarlas en las búsquedas orgánicas. Y es que los nuevos cambios en el algoritmo de Google remueven a los SEO.
Empezando por un frase que comentó Matt Cutts, que ha dado mucho que hablar al decir que Penguin 2.0 afectará de forma más profunda a las páginas web que su versión anterior 1.0. En este sentido se ha interpretado que se va a vigilar todavía más la política de enlaces de las páginas.
Google va a premiar a las páginas que tengan enlaces de calidad, pero que además tengan que ver con el sector o actividad en las que se encuadra la propia página. El resto de enlaces entrantes, más que beneficiar puede perjudicar nuestro posicionamiento y es algo que se debe vigilar.
El contenido original seguirá siendo un factor muy importante. Las páginas que ofrecen sus propios contenidos, útiles para los demás, relevantes y que son valorados por la comunidad ganan puestos. También ofreciendo dicho contenido en distintos formatos, no sólo texto, sino también vídeo o audio.
La actividad en las redes sociales se valora positivamente por el buscador y a medida que una página o un contenido es más compartido en las redes sociales se le da más importancia. De esta forma es fundamental tener una política activa en dichas redes sociales, en especial me atrevería añadir que Google +.
Por último, un factor que pierde peso son las palabras claves, algo similar a lo que ocurría con los enlaces entrantes. Todo esto puede llegar a afectar al posicionamiento de nuestra página y remueve un poco a los SEO que tienen que volver a plantear su estrategia de una manera algo distinta a como lo estaban haciendo actualmente.

Descubre quién enlaza tus contenidos desde Google Analytics.

Acaban de anunciar a través del blog oficial de Google Analytics una nueva funcionalidad para su herramienta de analítica web. A partir de ahora podremos ver la gente que enlaza nuestros contenidos desde Google Analytics, es decir los trackbacks.

Para lograrlo van a utilizar el protocolo de trackbacks por el cuál una web puede notificar a otra que la enlaza de forma automática. El problema que había hasta ahora es que la web tenía que tener implementado y activado este protocolo (como por ejemplo se puede hacer actualmente con WordPress), pues a partir de ahora Google va a ofrecer esta funcionalidad para los usuarios de Google Analytics.
ver-enlaces-google-analytics

Ventajas del nuevo reporte de Google Analytics

Gracias a este nuevo reporte obtendremos las siguientes ventajas:
  • Saber cual es el contenido que más gusta y por consecuencia atrae links.
  • Poder construir cuadros de mando SEO y Sociales más completos dentro de Google Analytics.
  • La posibilidad de construir relaciones beneficiosas con las personas que nos enlazan.
  • Tener esta información centralizada para no tener que recurrir a otras fuentes.

¿Dónde podremos ver los enlaces?

Para poder ver los enlaces tenemos que ir a Fuentes de Tráfico -> Social -> Páginas. Una vez aquí clicamos en la pestaña de Flujo de Actividad (Activity Stream) y más abajo clicamos en eventos.
flujo-actividad-activity-stream-google-analytics
Además si clicamos en la pestaña que hay a la derecha de cada enlace de este reporte nos aparecerán 2 opciones interesantes:
En Ver página podremos ver la página que está enlazada y en Ver actividad podremos ver la página que nos enlaza.
ver-actividad-ver-pagina
En ningún momento nos dice qué anchor text están usando los que nos enlazan, algo que los SEOs echaremos en falta… Y tampoco podremos segmentar estos datos, algo que es lógico porque los usuarios nos enlazan fuera de nuestra web. Además solo podremos ver los enlaces de las redes que están dentro del Social Data Hub.
En definitiva me parece una muy buena iniciativa por parte de Google la de querer acercarse al usuario menos avanzado o con pocos recursos a su alcance. Y además me parece de gran ayuda para los que estamos diariamente trabajando con Google Analytics, ya que de esta manera podremos tener unos informes más completos. Pero todavía, hasta que no se incorporen más redes importantes al Social Data Hub como la de WordPress, nos estarán faltando muchos datos.

Artículos Relacionados:

A STUDENT FORCED FACEBOOK TO IMPROVE THE PRIVACY. UN ESTUDIANTE FORZO A FACEBOOK A MEJORAR SU PRIVACIDAD

"When you delete something on Facebook, all that happens is that they hide it so that you do not see it," said the young man in demand.

"Cuando se elimina algo en Facebook, todo lo que sucede es que te lo esconden para que no lo veas", explica el joven en su demanda.
VIENA (EFE).- ¿Qué sabe Facebook sobre mí?. La batalla personal de un universitario austríaco que empezó con esta pregunta ha terminado obligando a la mayor red social del planeta a mejorar los términos de privacidad de cientos de millones de sus usuarios.
En el caso del estudiante de derecho Max Schrems, de 24 años, fueron 1.222 páginas en un CD, con datos personales divididos en 57 categorías, como aficiones, gustos, opiniones religiosas, y un largo etcétera, que lo dejó helado.
Entre los datos, acumulados durante sus tres años de actividad en la red social, le alarmó que aparecieran informaciones y conversaciones que había borrado, pero que Facebook no eliminó definitivamente, las siguió conservando en sus archivos digitales.
"Cuando se elimina algo de Facebook, todo lo que sucede es que te lo esconden para que no lo veas", explica Schrems. "Cada vez que le escribes a otra persona, en realidad lo haces a tres, Facebook siempre está presente", advierte.
La red social analizó de forma sistemática todos sus datos sin pedirle su consentimiento, incluido su parecer cuando apretaba el botón "me gusta" no sólo en la red social sino en cualquier página digital con ese "plug-in". "Facebook sabe más de nosotros de lo que la Stasi y la KGB (la policía política de la Alemania comunista y la Unión Soviética) sabía sobre cualquier ciudadano normal", reflexiona.
Schrems sostiene que lo que la empresa ofrece -mediante una descarga- a sus usuarios como su "archivo personal" no es toda la información que atesora sobre ellos, sino la que se ajusta a las leyes locales. Sin embargo, su insistencia a través de numerosos correos hizo que a él si le diesen toda la información. "Un error" que expuso a la empresa, sostiene.
El archivo fue la clave para iniciar un pulso con el gigante de Internet que se prolongó en 22 reclamaciones ante el organismo irlandés para la protección de datos (DPC), que acabó dándole la razón el miércoles pasado.
La sede internacional de Facebook -que agrupa a todos los usuarios salvo los de Estados Unidos y Canadá- se encuentra en Dublín, lo que implica que la compañía debe cumplir con las leyes europeas de protección de datos, que son más estrictas que las estadounidenses.
Después de una investigación de tres meses por parte de las autoridades irlandesas, la red social se comprometió el pasado miércoles a mejorar la privacidad de los alrededor de 500 millones de usuarios que dependen de las oficinas de la empresa en Dublín.
Las mejoras que Facebook aplicará incluyen una mayor transparencia en la gestión de las informaciones personales, como impedir utilizar una imagen del usuario para fines comerciales sin su consentimiento y eliminar la información que la red social obtiene a través del botón "me gusta", entre otros aspectos.
También se limita el tiempo que Facebook puede conservar informaciones sobre la navegación del usuario, como, por ejemplo, las búsquedas que ha hecho y cuando utiliza otros "plug-ins".
Dentro de seis meses otro informe de las autoridades irlandesas evaluará los progresos y se hará también público para mejorar la confianza de los usuarios, algo que aceptó Facebook..

Saturday, June 09, 2012

Google Panda contra Google Pingüino

Opiniones vario pintas, lo malo es lo que mas oye acerca de este nuevo cambio de Google. Aqui les dejo una más y en español...

Como ya sabrán mis esforzados y sufridos lectores (y los que acaban de aterrizar lo descubrirán en estas lineas) mi animadversión contra Google es y ha sido siempre manifiesta en pos de la transparencia que éste nos niega en cada servicio que ofrece (sí, bueno, como la mayoría de empresas de este tipo, es cierto). Pero si hay algo de lo que Google puede presumir es de tener el buscador de internet más utilizado (que no el mejor ni el más eficiente) por los usuarios de internet. Chupar toda la cuota de mercado, o gran parte de ella, hace que en un momento dado pueda cogerte de los huevos y preguntarte ¿Y ahora qué? ¿eh?
Bien, pues en gran medida esto es lo que pasó hace exactamente 4 días, el 24 de abril (y el efecto dura hasta hoy y quien sabe si se mantendrá). Como todos sabemos el buscador de Google funciona en base a un algoritmo que formula los términos de búsqueda y muestra aquello que él cree que nos puede interesar. Para escupir dichos resultados puede hacerlo de forma aleatoria en base a sus preferencias, de forma intimidatoria (robándote información personal a través de las cookies almacenadas en tu ordenador) o en base a antiguas búsquedas ya realizadas (o de las cuales has marcado el famoso "me gusta" +1). Dicho algoritmo va cambiando para evitar que páginas de Spam, Scam o webs sin interés puedan posicionarse muy arriba gracias a la sobreoptimización SEO
El día 24 de abril Google Panda (la última actualización del algoritmo conocida de Google) fue asesinado a traición por un Pingüino (así lo han llamado, si...), relegando a muchas páginas importantes a lugares insondables del buscador. Miles de páginas veteranas y otras cientos de miles no tan veteranas han sufrido un derribo por parte del buscador de manera incomprensible. Webmasters que trabajaban sus blogs, webs, o tiendas online y optimizaban un posicionamiento natural (recomendado por Google) a través de enlaces, redes sociales, bookmarks, etc han visto como su trabajo de años se ha ido literalmente a la mierda. De hecho estoy seguro que como usuario ya habrás visto que los resultados que muestra Google desde hace pocos días son una bazofia, repletos de errores, de bloggers sin conocimiento, y mucho resultado LATAM incluso buscando en Google de forma local (en Google.es, por ejemplo). Un error en la actualización de un algoritmo que potencia resultados de páginas de venta sospechosas de donde los vendedores y profesionales de la estafa se nutren (eBay, Milanuncios, mercadolibre, etc). Ojo, no todos lo son pero hay un alto porcentaje.



Como decía, el nuevo algoritmo parece haber penalizado a muchas páginas webs que basaban sus estrategias de link building en enlaces que Google ha considerado ser spam: enlaces en blogrolls y footers con anchor text específicos, enlaces en blogs satélite, intercambio de enlaces, reviews, etc... ¿Cuántos webmaster con varios blogs no enlazan sus proyectos entre sí? Yo creo que eso lo hemos hecho y lo hacemos todos. Las estrategias SEO van más allá de todo esto. Y algunos rozan el Black Hat comprando miles de enlaces, reviews, etc con la intención de mejorar el Page Rank de Google y consecuentemente recibir mejor valoración en las SERP del buscador.
Todavía es pronto para averiguar que está pasando, la desesperación de muchos webmasters y empresas que basan su estilo de negocio en internet es palpable a través de foros, blogs y redes sociales. Es normal, su negocio ha desaparecido del mapa. Es como cuando vas a un centro comercial un día, y al día siguiente han desaparecido 15 tiendas, y en su lugar han puesto a 4 chinos, un pakistaní y a otros tantos particulares vendiendo en plan mercadillo...
Las conclusiones a las que parece que se está llegando es que lo que hasta ahora no estaba penalizado por el buscador y además era recomendado (anchor text en los links, enlaces, reviews, etc) está empezando a ser revisado. Sobretodo el tema de los anchor text en los links, ya que ahora eso no se considera natural. Tampoco está bien visto meter miles de enlaces desde un blogroll y encima enlazar a tus propias webs. Bueno, son sus reglas. Pero lo jodido es que pese a las críticas que están recibiendo de medio mundo nadie de Google (su gurú, mentor y ..., me callo el adjetivo, Matt Cuts) dice nada, nadie responde, dan por callada la respuesta y (aunque no los vemos, si se nos antoja pensar como se les escapa un esbozo de sonrisilla maléfica, no en vano juegan a ser Dioses, claro, son el monopolio imperante).
De momento supongo que habrá que esperar, la verdad es que tampoco queda otra opción. Ver si hay modo de recuperar el trabajo de años y cómo hacerlo. Las cosas no están claras, hay quien elimina baclinks desde blogrolls (recordemos que hace poco avisaron y que mucha gente recibió avisos de "quíteme usted por favor ese enlace" desde Webmaster Tools ¿y si no utilizas este servicio? es que lo dan todo por hecho esta peña), hay quien se aprovecha de la situación creando webs nuevas y dándoles valor en pleno Google Dancing para aparecer los primeros, luego hay quien está eliminando palabras clave (keyword stuffing), cambiando títulos, eliminando meta tags... pero los resultados no son visibles. Las búsquedas de Google siguen siendo una M monumental e incompresibles.
La recomendación para paliar este efecto es (según se lee por ahí) poner títulos más naturales, no enfocados al posicionamiento, con descripciones más etéreas sin repetir palabras clave, y sobretodo la premisa principal de "el contenido es el Rey". No me jodas. Actualmente el contenido de las webs que se han "salvado" de la quema de brujas es una soberana porquería. Y en Google se tienen que estar dando cuenta porque los resultados no paran de variar, escupiendo mierda, y más mierda. No lo entiendo. Como webmaster los resultados que da a ciertas búsquedas muy competidas no me gusta, pero como usuario todavía me gustan menos. 
En fin, ejerzo mi derecho a la pataleta porque soy uno de los afectados. Y como yo miles, pero es lo que hay. Cuando juegas a este juego y el tablero no es tuyo siempre te arriesgas a quedarte sin dado, sin ficha o incluso sin tablero y con una colleja. Esperaremos a ver qué pasa...

Google Penguin Recovery Tips

The Penguin Penalty Update was made to attack bad sites and level the gaming field for web spams. This is not actually another version of Panda Update. Because Panda is not actually a spam filter, it is rather a priority inbox :-) i.e. Panda was introduced to like better contents, not hate bad contents.

                        Google Penguin Recovery Tips by Barry Schwartz and My 2 Cents

De-Optimize the Web Site

Just put only 8 (max 10) keywords in Meta Tags. Google has mentioned several times that they don’t use Meta Keywords for ranking. But, after the Penguine update, they are saying that they are now using it to hunt you down. So, it is about time you stopped stuffing your keyword meta tags with keywords.
I usually tell people to optimize site for only one keyword. And use multiple deeper pages for longer tail keywords or keyword variations. But, it is ok to optimize a page for 3 keywords. I know, I said 5 keywords few years back. But, things are getting pretty competitive, now-a-days.
I know many people that are still obsessed with keyword density. If you still are, then you are still in old school. Reanalyze your keyword density and try to reduce the keyword density of any page, if it is more than 5%. But, 2012 is the year of thick contents. i.e. quality 500+ words articles perform better than others. So, you can guess that even 5% would be more. Usually try to keep the keyword mentions right, i.e. not more than 5 times in the page. Do not manually or automatically count the keyword density percentage.
Try avoiding keyword stuffing in Page Titles. It is actually useless. Doing such things are also over optimization. Page Title is the major place to put your important keywords. But, the keywords that are available at the end, have no power. The influence is algorithmically discarded, but since Google is punishing you to have keyword stuffing in meta data, it can also be true for keyword stuffing in page titles as well.
Another place for keyword stuffing are the URLs. For Search Engine Friendly (SEF) URLs, make sure they are also not stuffed with keywords. So, de-optimizing your site is more about re-optimizing your site so that keyword stuffing is taken down to a tolerable and natural level.
According to the article by Google on the Penguin Update, there are really some hints about what you should do for de-optimizing your site. Other than Keyword Stuffing, Google also mentions other aspects that they are also looking into:
Outgoing links are completely unrelated
This means that you should be careful in what anchor text you use and which site you link to. I don’t think that the anchor text is much of a problem, but try to link to relevant site from your article. Even LSI keywords are also relevant. Try to link to the sites that talk about relevant stiffs.
Page text has been “spun” beyond recognition
I searched for the keyword “spin”, “spinning”, and “spun”. Looks like Google Inside Search Blog has mentioned the overly popular term Content Spinning for the first time. Though some are based on guesstimation, but see this old video from SENuke to understand the level of intelligence that Google uses for identifying near duplicate and spun contents.

Increase Quality Links to Pages

I get many questions from people asking me what is quality links. Well, this should not be answered from the perspective of an SEO professional, rather from the perspective of Google. A Quality Link is voluntary in nature and is provided naturally (or organically) to your site from relevant pages. A Quality Link is always a free and enthusiastic link and not influenced by money or any other benefit.
If you have been doing link building from high PR but irrelevant pages just to increase the Page Rank, then you might be a Prime Prey for Penguin Penalty. It is pretty easy to suggest you to remove the bad quality links, but I know how hard it is. If you have already purchased links, try to find highly relevant pages on their site and try to get links from those relevant pages. If you are out of luck in finding relevant links, then propose them to create some relevant pages and have them linked from their high PR pages and get a level deep link, but from highly relevant one.
In future, make quality contents, so that they are either newsworthy or share-worthy. Actually social media marketing plays a great role in having your contents found now-a-days. And getting mentions is secondary. e.g. I found Barry’s article in Facebook and now giving link love to his blog with very relevant page title. I am not boasting, but this is indeed a quality link to Barry’s article.
You can also try to use link baiting technique on related topics to your business. e.g. if you sell Diamond Rings, you can start celebrity gossips around Diamond Rings. Or talk about most controversial story in your industry. Another good way to get quality links is by providing  a news faster than CNN, BBC, Reuters. The first provider of a breaking news always gets link love.

Make Sure Link Anchor Text is More Natural

Anchor text has been the driving force in passing relevance to a site. But, in recent years, exact match keywords in Anchor Text is thought to be manipulative. If you evaluate the anchor texts of voluntary links, then you might find that most of them are not using exact match keywords. So, it is high time to alternate your anchor texts from backlinks.
Those who were complaining about Penguin Penalty, most of them were complaining that the sites that were targeting less than 5 keywords were affected in some way. But, those who targeted more than 10 keywords, were in sound health. This is also an indication that anchor text alteration is crucial now.
It is ok to have exact match keywords in anchor text. But, try not to make it wide spread. It looks very much manipulative in the eye of Google. Always try to get links from relevant pages and don’t care about what your anchor texts says. Google also recently announced that they have turned off some classifier for anchor texts. Not sure which particular classifier they were talking about. But, you can help yourself in making the anchor texts look pretty natural.
Actually, Google Webmaster Tool does has this insight here (change yoursite.com with your site). If your anchor texts are natural, you should see varied keywords and many anchor texts listed in Google Webmaster. So, if you see limited number of anchor texts, then you have something to worry about.

Remove Links from Blogrolls

Actually the suggestion should be: Avoid Sitewide Links. Site-wide links does pass some page rank but in most cases, it may also link to you from irrelevant pages, which does not help you in ranking. In recent Penguin Penalty, sites having sidewide links have been affected. Sitewide links are actually indicative of link purchase.
Try to avoid getting sitewide links from other sites, unless the site has all article or contents related to the keywords you are targeting. However, for natural looking linking, always try to get links to deeper pages, instead of the homepage. If you are using topical satellite blog or topical spokes in link wheel, try to link to deeper pages as much as possible. By topical, I mean having separate blogs in specific topic, not diverse topics and building it as micro-authority in a relevant niche.
If you are selling links from Blogrolls, then Google also tells you to use rel Nofollow tags on links. It is also a good idea to nofollow link to your homepage from spokes as well. But, favor only the deeper links.

Scale Back the Internal Link Anchor Text

Not sure what exactly Barry wanted to mean by this. But, in most cases, keywords in anchor text plays a great role in passing relevance to deeper pages. That’s why for sites in flash, footer links with relevant anchor texts plays a great role in making Google find the most relevant page for your keyword. However, there are people that over do it and try to get as many links possible without considering Content Siloing. Content Siloing through anchor texts in now more effective than just random internal links.

Exact Match Domains Hurt

In Penguin Penalty, many exact match domains have seen less traffic. Exact match domains have been a part of the manipulation process. But, I personally don’t think that Google would be hurting your site if you have built a good brand and authority around your keyword. If you don’t have a good brand or authority, then there is reason to make Google believe that you are manipulating Google. So, to get out of the penalty, you should build a good brand as well as authority around your site.
After the Penguin Update, I really don’t think, exact match domain are NO (totally zero value). There is still some value in it. It is just that, sites that does not have much authority, should not get the Google love for having exact match keyword name of the domain.

Practice Negative SEO

Recently, Google has sent mails to many webmasters through Google Webmaster that they have suspicious backlinks for their sites. This has led to the idea that you can make a site look suspicious in the eye of Google. May not be a good one, but this is also another idea to make your way to the top by hurting other competitors.
But, personally I think you would be wasting your time. Because, Google has been working with Google Bowling for long time. Google Bowling is the term where Google discards any back link influence, i.e. they become nofollow even if they are dofollow. Moreover, Bruce Clay in SEO FB Group suggested a nice option in Google Webmaster:
I am hopeful that there will be a WMT disavow option soon so that recipients can essentially “nofollow” a link from the receiving end.
And with the Penguin Update and the negative SEO fear, I also think Google should be serious about Google Bowling and you might see similar feature in Google Webmaster soon. So, all the time you spend on negative SEO will be waste of time.

Move Content to a New Domain

Well, I don’t think you need to do that. Actually, sub-domains are also ok for doing this. Google treat each subdomains as separate sites. And that’s how you see WordPress and Blogspot blogs multiple times in SERPs. But, this might also deprive you from age scores. I’d suggest you to build your site as authority. If you are determined, then fight it, not quite it.

Build a Smaller Site with Very Few Pages

Not a good one and I really don’t support it as an option. Sites with fewer pages rose in rankings as other heavily optimized sites’ ranking dropped. But, sites with good authority still are standing strong. Having fewer pages does not help you grow authority. Moreover, it is like doing nothing for your site. Serious businesses prefer having more and more contents. That is how they reign by becoming authority in their industry.

Write Better Content

This is perhaps the most important piece of suggestion for both Panda and Penguin update. The better the content you have, the more the probability that others in the same industry will prefer you above your competitors. That will also help you build natural links.

Add More Social Elements, i.e. Google+ Sharing

Social SEO is real guys. You can not deny it. Many webmasters are running after only dofollow links. But, Social SEO made nofollow links worthwhile. And having only dofollow links also looks suspicious. But, to make proper balance of both nofollow and dofollow links, enabling social sharing is a good way.
Search Plus Your World was not only meant to make searches more meaning, but also to convert Google from a search engine to recomendation engine. If you asked someone, what is better than a search engine, then the obvious answer would be a freind or trusted person who knows about the keyword I am searching for. And Google always wanted to be that recommendation engine. And Google+ was not just meant for a social media, it has much wider purpose.
Social Signals from Facebook and Twitter is also important. Banded3 did a nice research and found that twitter mentions has great influence in rankings. If you are looking into the marketing in future, you should also invest much time in Social Media Marketing.

Site Audit to Determine Problem Areas

Whenever a new algorithm update happens, this is the first thing you should do. In perspective of the Penguin Update, the audits you should do are:
  • Various diagnostic reports in Google Webmaster Tools
  • Traffic analysis in your major web analytics app (Google Analytics)
  • Keyword ranking analysis for your important keywords
  • Competitor ranking and search engine performance analysis
  • Backlink popularity and quality analysis

Think More Long Term, Stop Taking Shortcuts

This has always been the last suggestion for every algorithm update. And Shortcuts were never an option in White Hat SEO. Every shortcuts are actually manipulating Google and Matt Cutts is also simultaneously taking actions against such short cuts.
Long term thinking also helps you to reduce the loss of effort you spent on your site. Moreover, the effort you put into the site steadily becomes an asset. Otherwise, the spammy links you made through money and effort are now a disposable expenses.
If I talk something about the future of SEO, then my opinion is that: SEO can not be done by agencies anymore in future. Though, it is still possible through agencies. But, people will need to build inhouse SEO team that understand the business well. SEO Agencies in recent times, need to have training centers or resources to train companies to market themselves. Or they can build specialization in specific areas. I already see this happening, because you can find Real Estate SEOs, Celebrity SEOs, Mortgage SEOs, etc. and in future you might see more product or service SEO specialization.
Moreover, Google is steadily transferring the power of SEO to individual level. I predicted this shift long ago in May of 2008 on my blog 13 Prophecies of Internet Marketing on Marketing Pilgrim (Prophecy #10: Personal Power to Influence Purchase will Increase). Some of the indications are shifting power of influence from forum to blogs, search plus your world, social signals, etc. Moreover, I strongly support AJ Kohn that Google will bring AuthorRank soon, which will revolutionize SEO to the next level and SEO will be more person oriented than website oriented.
So, it is not sites that can make another site rank well in future, it’ll be individuals or group of relevant individuals that can help a site or business rank well in search engines. So, SEOs in future will be great marketers like Oprah who’s endorsement is worth millions of dollars.

Additional Penguin Recovery Tips

Penguin has hit sites that were doing much spamming and building low quality links. While Panda hit mainly onpage factors, Penguin has targeted offpage factors. Many people already have mentioned some nice tips to recover from it. Some are:

Link Pruning

The term Link Pruning was initially invented by Bruce Clay, which is really the opposite of link building. It is the process to keep quality backlinks and delete the bad ones. The best tool that can give the the insight for quality links is Majestic SEO’s ACRank (replace yoursite.com with your site). See the video below to understand more about Link Pruning and also read the blog on Stone Temple.

Create Microsites or Micro-Authorities

In a recent post in Microsite Masters, they have suggested using Microsites. Initially this has been a greyhat technique. But, personally I think that it can be a good option to Silo Contents from external sites.
I think microsite does not need to be outside your domain. it can be in subdomain. Specially after panda, subdomains have been good way to Silo Contents. If you target and promote keywords and services like: Web Design, Graphic Design, Web Development, etc. then you can use External Authority Content Siloing for each keyword. External Authority Content Siloing from authority sites will help you to become bigger authority. But, for that you need to create separate authorities.
For commercial sites, there is really not much engagement. Rather, you can start the engagements on external educational and news sites or subdomain. I really don’t support having 20-50 blog for Graphic Design only. Just create one blog which you create as an authority (which is not really that easy). And another blog for Web Development and try promoting deeper pages of the bigger authority site instead of homepage.
Affiliate Marketers actually do that for you and it is already happening. Large companies are already doing it. But, their microsites are really not that micro. The philosophy here would be External Authority Content Siloing and I think since Microsite has less reputation, “External Authority Content Siloing” would be the best word that I am trying to support.
Again, if I support that future of SEO will be more people oriented than website oriented, then if you can create a strong supporter for your domain from external domains, you can stay at top in future as well. So, try not to create crappy microsites, just create a strong supporter for you.

Guest Blogging

Guest Blogging is actually not a new concept. It has been around for long time, as Ann Smarty has been supporting it for long time. And when I am speaking about AuthorRank, guest blogging will be more prominent in future. Since you really can increase your AuthorRank even by blogging on other sites.
It’s pretty hard to get quality links. Again it is also hard for people to get quality contents for their blogs. This is the phenomenon where synergies can happen. While other blogs are looking for quality contents, you can jump in to provide that, even by buying quality articles. That’s why in recent future, I think the SEO industry will be seeking for quality contents than backlinks.
Update: In recent discussion between Matt Cutts and Danny Sullivan at SMX Seattle, Matt Cutts revealed that Google is coming up with new feature in Google Webmaster that will help Webmasters to disavow some bad links, which will eventually turn a dofollow link into nofollow. This mean that the suggestion for such feature by Bruce Clay in SEOFB Group is finally seeing life. And this will help webmasters to fight negative SEO better and also make link pruning more effective and easy. Here is the exact word for the news:
He also mentioned — and this will be good news to many search marketers — that Google is considering offering a tool that allows web masters to disavow certain links, but that may be months away if it happens.

Disclaimer

Google Penguin update is relatively new. The update went live at April 24, 2012 and this article was written a week later. So, most of the suggestions based on best guess and some of the strategies have not yet been tested.