lunes, noviembre 23, 2009

"google" ,pero ¿por qué no lo detienen?





News Corp y AP acusan a Google de robarles, pero ¿por qué no lo detienen?
jajajaja..... Siempre lo he dicho Internet es ya un ser indetenible-- Y tambien he dicho y es palabra de "Sabio, que no se equivoca" que muchas de las Utilidades que estan ya en la Red de Redes, solo desapareceran cuando la misma Red desaparezca; algo que nunca ocurrira al menos que la misma Humanidad desaparezca del Universo---ESPERO QUE HAYAN ENTENDIDO ESTA INTRODUCION DE HOY EHHH---

Bueno pues tengo que contarles que tras llegar tarde a la era digital –al igual que las industrias del cine o de la música- los ejecutivos del principal conglomerado de medios de comunicación (News Corp)y la mayor agencia de noticias mundial (AP) acusan a Google y otros buscadores en Internet de robarles contenidos jijiji. La solución es sencilla: prohibir a Google, Microsoft o Yahoo! y una TeraGigantesca lista de nombre de sitios WEBs... que vinculen sus noticias, pero ¿se atreverán? JAJAJAJA....
En una reunión de 300 medios de comunicación mundiales en Pekín, los máximos dirigentes de News Corp y AP - Rupert Murdoch y Tom Curley- confirmaron que cobrarán al usuario de a pie por el acceso a sus medios digitales y acusaron a Google y otros agregadores de robarles contenido sin pagar por ello.

ESTAS FUERON PARTES DE SUS EXPRESIONES
“Nosotros, los creadores de contenido hemos sido demasiado lentos en reaccionar a la libre explotación de las noticias por terceros sin el correspondiente permiso –pago-. “Los agregadores plagiarios pronto tendrán que pagar un precio por la captación de nuestros contenidos”, dijo Murdoch, ya multimillonario, pero que como vemos quiere más pasta "PERO COMPARTE UN POCO CARAJO" que tu tambien te has beneficiado de este invento que es INTERNET y que gracias a Dios se se les fue de las manos a los Gobiernos y que esta en poder de la Sociedad Mundial. Pues bien continuando por lo dicho por este señor agrego que no sólo Google, Microsoft o Yahoo!:Si no tambien “Servicios web como Wikipedia, YouTube o Facebook se han convertido en los destinos preferidos de los usuarios desplazando a los sitios web de los editores de noticias tradicionales. Los creadores de contenido debemos actuar con rapidez y decisión para recuperar el control de nuestro contenido”, indicó.

“Rapidez y decisión”, dicen, algo que tienen a su alcance con un par de simples comandos html (jajaja saben.. de programacion) ya que Google no obliga a los sitios web a aparecer en Google News ni en su buscador. Un servicio gratis total y que lleva a los sitios digitales de Murdoch y compañía millones de clientes.

O sea, que primero obtienen clientes gratis de Google y luego le acusan de ladrón. Nada, que se atrevan a quedarse fuera del “saqueo de Google”. De paso, la pregunta del millón: ¿está dispuesto el internauta a pagar por noticias on-line?
Y otra buenisima por que en China la reunión........

jueves, octubre 15, 2009

Google ya no será importante en el futuro




Para Tim Berners-Lee,
Conocido como el inventor de la web por haber desarrollado el lenguaje HTML y el primer navegador web, asegura que cuando la búsqueda semántica reemplace a la de texto que usamos actualmente, el buscador dejará de tener el papel casi omnipresente que tiene hoy.
Berners-Lee es un científico británico que hoy se desempeña como director general del proyecto Web Science Research Initiative, en el que colabora el Massachusetts Institute of Technology y la Universidad de Southampton.

Pero poco menos de veinte años atrás, en tiempos en que se desempeñaba en el CERN (Organización Europea para la Investigación Nuclear) en Suiza, Berners-Lee creó el lenguaje HTML junto con el primer navegador web.

Aunque lo hizo como parte de la búsqueda de una forma más efectiva de transmitir información, su trabajo derivó en lo que hoy conocemos como internet, dando origen a una verdadera revolución. Por ello, porque es "el padre de la criatura", su palabra es siempre muy respetada, aunque Berners-Lee no sea un experto en negocios como Bill Gates.

Y lo que el nos está queriendo decir es que aunque hoy veamos a Google como la compañía más grande del mundo, la más poderosa y de mayor presencia, eso puede cambiar en un futuro, en gran medida porque las búsquedas cambiarán.

En lugar de búsquedas textuales, como en la actualidad, lo que se utilizará serán las búsquedas semánticas, que podrán relacionar toda clase de información y unir no solo a personas, sino a todo tipo de objetos. Para Berners-Lee, será como unir todo lo que nos rodea y etiquetarlo, permitiendo volcar todo tipo de contenidos a la red y unirlos.

Por ejemplo, tu cuenta bancaria, mapas y tu calendario: podrías saber cuando, donde y para cual de tus citas o eventos gastaste tu dinero. Con las búsquedas semánticas en tiempo real, mientras anotas una dirección en un procesador de texto se puede buscar de manera automática esa dirección en un mapa online, y con ello se podría establecer de manera inmediata rutas hacia allí desde tu casa o trabajo, como así también información sobre cuales de tus actividades diarias (gimnasio, tenis) te quedan cerca.

Hoy día puedes buscar un gimnasio que que cerca de tu trabajo, pero en el futuro eso sería automático, ya que para Berners-Lee las búsquedas semánticas permitirán otro tipo de interonectividad entre capas de aplicaciones.

Y lo que el británico piensa es que Google es lider por su efectividad en búsquedas web, algo que no necesariamente podrá sostener en el futuro. Para Berners-Lee, también las redes sociales dejarán de tener tanto apogeo ya que no solo las personas estarán conectadas, sino todo lo que representa nuestro mundo físico lo estará, por lo que estas irán mutando.

Es muy probable que Berners-Lee tenga razón, principalmente porque ya hay dando vueltas muchos proyectos de buscadores más orientados a lo visual y con otras formas de representación de la información mucho más efectivas e innovadoras, como Tafiti.

Lo que a Google le sobra como gran buscador, le falta en cuanto al aspecto visual y sentido de pertenencia y comunidad que ofrece, por algo Yahoo! es mucho más visitado y sus usuarios realizan más actividades una vez que han ingresado al sistema.

No tenemos nada contra Google, pero si lo que Berners-Lee dice se concretara, será interesante ver como asumen el buscador el compromiso de innovar y mejorar para seguir liderando la web. Y si no lo logran, será igualmente interesante ver quien asume el nuevo rol de líder.

Wi-Fi Direct


Adiós al router

Las conexiones inalámbricas han evolucionado bastante en los últimos tiempos, pero tampoco se puede decir que estén libres de limitaciones. Detalles como el alcance todavía resulta problemático para muchos, mientras que aquellos que quieran instalar su propio Wi-Fi en sus hogares deberán invertir dinero en routers para lograrlo, sin mencionar el tiempo que lleva configurar a estas conexiones correctamente. Sin embargo, una actualización a salir durante mediados del próximo año podría aumentar las capacidades Wi-Fi en muchos dispositivos de forma radical, convirtiendo a cada uno de ellos en extensores inalámbricos, ampliando así el alcance y la velocidad de las conexiones.

Existen varias formas de conexiones inalámbricas, todas ellas con sus ventajas y sus inconvenientes. A pesar de la variedad, debido a sus capacidades de transferencia de datos y su compatibilidad general, el acceso por Wi-Fi sigue siendo uno de los más utilizados. Romper la dependencia de los cables es algo muy atractivo para cualquiera que pueda inclinar un poco su cabeza y observar de cerca la maraña de cables que gobiernan a cualquier ordenador promedio. Son cada vez más los hogares que optan por colocar un router inalámbrico en sus conexiones a Internet, un cambio que usualmente está asociado con la incorporación de un ordenador portátil o un móvil con capacidad Wi-Fi. La teoría suena muy bien, pero no todos pueden llevarlo a cabo. Cuestiones de costos suelen ser el primer obstáculo, seguido por el desconocimiento técnico para instalar esta clase de conexiones. Por suerte, las cosas estarían a punto de hacerse mucho más fáciles para todos los que posean un dispositivo compatible con conexiones Wi-Fi.


El Wi-Fi Direct podría reducir la dependencia sobre los routers y puntos de acceso
Durante el día de ayer, la Wi-Fi Alliance (que tiene por miembros a empresas destacadas como Intel, Apple y Cisco) anunció la creación de Wi-Fi Direct, una nueva tecnología compatible con las normas Wi-Fi actuales, y que básicamente tiene la capacidad de convertir a cadad dispositivo Wi-Fi en un punto de acceso. Los estadounidenses tienen una palabra especial para esto, conocida como "tethering", algo así como "enlazado". Wi-Fi Direct permitirá que todos los dispositivos Wi-Fi puedan enlazarse entre sí, logrando comunicaciones directas entre ellos sin la intervención de un router inalámbrico o dispositivo similar. Un ejemplo sencillo: Dos móviles con capacidad Wi-Fi pueden compartir datos por Bluetooth, pero para hacerlo por Wi-Fi es necesaria la presencia de un router. Con el nuevo Wi-Fi Direct, ese router ya no será necesario.

Esto viene con sus puntos positivos y negativos. Entre lo positivo, esto permitiría una mayor tasa de adopción del Wi-Fi en todo tipo de dispositivos, incluyendo cámaras digitales y hasta televisores. Al mismo tiempo permitiría la entrada del Wi-Fi entre móviles de menor costo, ya que actualmente está reservado para móviles de alta gama. En la otra cada de la moneda, el Wi-Fi Direct podría afectar de forma crítica a la fabricación y venta de routers, ya que en teoría no serían tan necesarios como ahora. Otras tecnologías afectadas son Bluetooth y 3G. Ambas han hecho todo lo posible para aumentar su velocidad de transferencia, pero las conexiones Wi-Fi siempre han sido más veloces y fiables. De todas formas, esto representa un gran paso, y en verdad esperamos que dicha tecnología sea implementada rápidamente.

ahora os presento el boletin oficial WI-FI ALLIANCE (la traducion fue hecha por la herramienta de google)

El Wi-Fi Alliance anunció una nueva especificación de redes inalámbricas que permitirá a los dispositivos para establecer pares simple-to-peer conexiones inalámbricas sin necesidad de un router inalámbrico o hotspot. Wi-Fi directo tiene una amplia gama de usos potenciales, muchas de las cuales invaden el territorio de Bluetooth y amenazan con hacer que el protocolo inalámbrico que compiten obsoletos.

La nueva especificación, previamente mencionadas por el Wi nombre en clave "Fi-peer-to-peer ' (se cuenta como un "nombre en clave" si se acaba de llamar lo que es en los términos más simples posible?), pronto se terminará y el Wi-Fi Alliance espera comenzar a certificar que los dispositivos Wi-Fi compatible directa para mediados de 2010 .

"Wi-Fi directo representa un salto adelante para nuestro sector. Usuarios Wi-Fi en todo el mundo se beneficiarán de una solución única tecnología para transferir contenido y compartir aplicaciones rápida y fácilmente entre los dispositivos, incluso cuando un punto de acceso Wi-Fi no está disponible ", dijo el Wi-Fi Director Ejecutivo de la Alianza Edgar Figueroa. "El impacto es que Wi-Fi será aún más penetrante y útil para los consumidores y en toda la empresa."

En teoría peer-to-peer redes inalámbricas ya existe. Además de conectar a los routers inalámbricos o redes de hotspots, muchos de los dispositivos inalámbricos son capaces de crear una red ad hoc - básicamente un peer-to-peer de la red inalámbrica entre dos dispositivos.

La red ad hoc inalámbrica siempre ha sido más complejo y engorroso de lo que vale, y maxes a cabo en 11 mbps. Wi-Fi directo se conectan con velocidades de acceso Wi-Fi - hasta 250 mbps. Wi-Fi dispositivos directo también será capaz de difundir su disponibilidad y buscar Wi-Fi dispositivos directo.

Wi-Fi se puede conectar dispositivos directo en parejas o en grupos. Con Wi-Fi directo sólo uno de los dispositivos debe ser compatible con Wi-Fi directo para establecer el peer-to-peer de conexión. Así, por ejemplo, una conexión Wi-Fi directo teléfono móvil podría establecer una conexión con un no-Wi-Fi portátil directo para transferir archivos entre los dos.

Wi-Fi solapamientos directos en el territorio de Bluetooth. Bluetooth es una tecnología prácticamente en todas partes utilizan para la conexión inalámbrica de dispositivos, como auriculares, ratones, o el siempre popular auricular Bluetooth que salen de la cabeza de todos. Bluetooth utiliza menos energía, pero también tiene una gama mucho más cortos y las velocidades de transferencia más lentas. Wi-Fi directo puede permitir que el mismo dispositivo de conectividad como Bluetooth, pero a distancias y velocidades equivalentes a lo que los usuarios experiencia con Wi-Fi.

Existen posibles problemas de seguridad que vienen con una tecnología como Wi-Fi directo. Bluetooth ha sido la tema de las cuestiones de seguridad como Bluejacking que permite a un atacante para conectarse de forma anónima con un dispositivo Bluetooth inseguro y secuestrarla o poner en peligro sus datos. Bluejacking es sólo una amenaza en un radio de 20 o 30 pies. Wi-Fi rangos son mucho mayores que abre la posibilidad de que los atacantes hacer conexiones anónimas desde el estacionamiento o en la calle.

El Wi-Fi Alliance, que incluye a miembros como Cisco e Intel, es consciente de las preocupaciones de seguridad, así como los riesgos de Wi-Fi directo podrían introducir para las redes empresariales. Wi-Fi directo incluirá soporte para WPA2 (Wi-Fi Protected Access 2) y AES para las conexiones más seguras y las medidas están siendo desarrolladas para permitir a los administradores de TI a ejercer cierto control sobre redes Wi-Fi en su entorno directo.

Creo días Bluetooth podría ser contados. Si Wi-Fi directo puede proporcionar la misma de corto alcance, ad hoc de dispositivos de conectividad como Bluetooth (y más), utilizando el mismo hardware de red inalámbrica que ya está incluido en el cuaderno de prácticamente todos los netbook, teléfonos móviles y otros dispositivos, ¿por qué molestarse añadir un adaptador Bluetooth y hacer frente a los controladores de Bluetooth en la parte superior de eso?

miércoles, octubre 14, 2009

Cómo descargar vídeos flash


No se pero honestamente quiero enteder a los medios de comunicacion masivos todos incluyendo disquera , periodicos, etc.)...Estos seres siempre sacando partido de todo lo que presentan y es lo logico por que mas que nada todo es negocios e intereses en esta vida, en fin vamos a lo que vinimos el asunto es que esos medio luego de exprimir las ondas herziana (señales de radio) se pasararon al cable (señales electricas) en el caso de R & TV.

Ahora la batalla de todos esos medios es.... INTERNET .... donde ofertan todos sus contenidos ; pero ¡ alto ahi ! ver y no tocar ,,,jajajajajajaja ya ustedes se imaginan de que voy .... pues por lo menos estos nos afinan las agudeza (nuestras inteligencia y nos hacen buscar mecanismo....ahora les cuento-

Por ejemplo aunque la web de rtve.es está muy bien para ver programación que no pudimos ver en su momento de emisión, no por eso dejamos de tener algunas pegas a la misma, como es el que no se puedan descargar los vídeos, o el que no podamos suscribirnos a los programas a través de RSS para poder verlos tranquilamente con Miro.
Mientras tanto, podemos hacer un truco para descargarnos los vídeos manualmente (están en formato FLV) y después poderlos ver con Miro o cualquier otro reproductor de vídeo.
Para hacerlo entramos en www.rtve.es, sección “TVE a la carta”, y una vez elegido el programa que queremos descargar, botón derecho del ratón “Abrir en nueva pestaña”.

En la nueva pestaña, visualizamos el código fuente (Ctrl+U en Firefox) y buscamos la línea que contiene el xml: so.addVariable(”parseFile”, “/alacarta/player/321173.xml”); (el número depende del vídeo).

Ponemos en el navegador http://www.rtve.es/alacarta/player/321173.xml y veremos el código XML con una localización del vídeo: rtmp://stream.rtve.es/stream/resources/alacarta/flv/5/8/1224370297485.flv

Ya sólo queda poner en el navegador http://www.rtve.es/resources/alacarta/flv/5/8/1224370297485.flv para poder descargarnos el vídeo.


Seria egoista si no agradecieria a :http://lamaquinadiferencial.wordpress.com si ellos no hubiese sido posible este articulo..gracias de cora.

miércoles, octubre 07, 2009

Premio Nobel para la fibra óptica y las cámaras digitales


- El galardón de Física premia el uso más moderno de la luz- La fibra óptica constituye el eje central de la sociedad de la información - El dispositivo CCD de las cámaras digitales ha revolucionado el mundo de la fotografía y de la astronomía

Quien en la actualidad toma un auricular de un teléfono o se conecta a la Internet utiliza una tecnología revolucionaria: con la fibra óptica de vidrio se logró transmitir datos a altísima velocidad, lo que permitió el establecimiento de comunicaciones telefónicas claras entre por ejemplo parientes separados por miles de kilómetros y el envío alrededor del mundo de imágenes, textos y voz en una fracción de segundo.

Los cables de fibra de vidrio constituyen el eje central de nuestra sociedad de la información.

Un segundo, pero no menos revolucionario invento óptico se encuentra en cada cámara digital: un chip sensible a la luz, el CCD, que les permitió a los científicos de las más variadas disciplinas dar nuevas miradas a sus objetos de estudio.

Ambos logros fueron distinguidos este año por la Real Academia Sueca de Ciencias en Estocolmo con el Premio Nobel de Física.

Charles Kao, ciudadano británico y estadounidense nacido en 1933 en China, reconoció en los años 60 el potencial de la fibra de vidrio. En 1966, mientras trabajaba en los Laboratorios de la empresa Standard Telecommunication en la localidad británica de Harlow, calculó que la fibra de vidrio permitía una transmisión de datos a lo largo de 100 kilómetros, cuando el estándar de ese momento era de sólo 20 metros. Sin embargo, sólo cuatro años después se logró fabricar el primer cable de fibra óptica de vidrio libre de impurezas necesario para la transmisión a larga distancia.

1.000 millones de kilómetros

"En la actualidad se colocaron más de 1.000 millones de kilómetros de fibra óptica en todo el mundo, lo que, si se los uniera equivaldría a dar 25.000 vueltas al mundo. Las fibras ópticas de vidrio cargan con casi la totalidad del tránsito de comunicaciones telefónicas y de datos en el mundo, subrayó el Comité Nobel.

"Que esta conferencia de prensa de anuncio del Premio Nobel se pueda ver en todo el mundo a través de la televisión se lo debemos después de todo al trabajo de Charles K. Kao", subrayó Joseph Nordgren, miembro del Comité Nobel.

Sin la tecnología desarrollada por Kao no existiría Internet ni las comunicaciones telefónicas en la magnitud y a los precios que las tenemos en la actualidad.

"Esta es la base para toda la tecnología de la información. Y entretanto tiene un papel en todos los ámbitos de la vida", dijo Godehard Walf del Instituto Heinrich Hertz en Berlín.

Los sensores CCD, por cuyo desarrollo los investigadores estadounidenses Willard Boyle, de 85 años, y George Smith, de 79, se repartirán la otra mitad del dinero del Premio Nobel, también tienen una amplia aplicación.

Desde el telescopio espacial Hubble hasta los análisis de ADN, estos chips ayudan a los científicos a hacer visible lo hasta ahora invisible. Están incluidos en microscopios y aparatos de rayos X, en aparatos de fax y escáner, en cámaras de televisión y teléfonos móviles capaces de tomar fotografías.

El chip fotográfico usa el efecto fotoeléctrico, por el cual Albert Einstein recibió en 1921 el Premio Nobel de Física: si la luz impacta en un cuerpo conductor o semiconductor, se pueden liberar partículas de carga negativa (electrones).

El "descubrimiento astuto y extremadamente refinado" de Boyle y Smith "derivó en una verdadera explosión de aplicaciones en los últimos diez años", dijo el profesor de electrónica Christer Svensson, miembro del jurado que otorga los Premios Nobel.

domingo, septiembre 27, 2009

MICROSOFT GAZELLE


A pocas semanas que aparezca la versión final de Internet Explorer 8, la compañía de Redmond sorprendió con un anuncio llamativo. Microsoft Labs dijo que está trabajando en Gazelle, nombre clave de un nuevo browser que ofrecería más seguridad que sus competidores como Chrome, Firefox, Safari, Opera e incluso Internet Explorer.

Gazelle todavía es un prototipo, con más de 5000 líneas de código en C#. Su principal diferencia en relación a los navegadores “normales” es que considera cada parte del sitio web (iframe, subframe y plug-ins). Eso es interesante, pues algunas de esas partes son utilizadas habitualmente para insertar código malicioso en los sitios.
Por ahora, el rendimiento del navegador es veloz como una gacela, pero los desarrolladores son ambiciosos y creen que pueden acelerarlo un poco más. Los que deseen conocer más de este proyecto, pueden revisar el PDF que dejaron los responsables de Gazelle.


Aún no se podría llamar exactamente un navegador, pero como se esperaba en el mes de Agosto en el Usenix Security Simposium se presentaron los papeles oficiales de Gazelle.

También ya tenemos artículos relacionados a este gran proyecto que tienen los chicos de Redmond. Bien, se trata de un concepto revolucionario que hoy en día va tomando más forma y madurando, ese concepto es llamado la computación en nube.

Esta tendencia hace que un navegador ya no sea una simple herramienta intermediara entra la pc y la red de redes, y que solo sirva para visualizar páginas web. Ya hoy en día, las páginas se hacen cada vez más ricas, es más, son aplicaciones que trabajan enteramente con el usuario y que sin él, su computador no serviría de nada. Un ejemplo claro sería el uso correo electrónico, redes sociales, reproducción de vídeos e incluso procesadores de texto u hojas de cálculo como las que ofrece las aplicaciones de Google(uno de ellos: Google Docs).

Entonces, ¿Habría necesidad de que existiera un navegador como intermediario? Pues claro que no. Para eso Microsoft está desarrollando un navegador-sistema operativo que sería Gazelle, pero uno de los retos principales que tiene la gran compañía del famoso Windows sería la seguridad del servicio.

Lo que si no cabe duda, es que queda poco tiempo para que esto sea posible. La información es cada vez más rápida y avanza de manera vertiginosa. Gazelle está en sus estadios infantiles en los laboratorios de Microsoft, la fecha de lanzamiento se desconoce y hay pocas probabilidades de que sea un reemplazante de Internet Explorer(Aunque por mi parte creo que ni existiría para la competencia). Aunque ahora se sabe que tendrá un rival: Y ese es el nuevo Google Chrome OS.

PUES BIEN A CONTINUACION HAGO UNA TRADUCCION DEL DOCUMENTO OFICIAL EMITIDO POR MICROSOFT

Los navegadores web se originaron como aplicaciones que la gente utiliza para ver páginas web estáticas de forma secuencial. Luego los sitios web se convirtieron en aplicaciones web dinámicas que componian el contenido de varios sitios web. Sin embargo, los navegadores existentes, incluyendo las nuevas arquitecturas como Internet Explorer 8, Google Chrome, y OP, trabajan con gran parte de la construcción del sistema operativo que ofrece un navegador, lo que supone un gran riesgo sobre control protección de todos los recursos del sistema entre los ususarios y los directores de sitio web.


En este trabajo, presentamos Gazelle, un navegador web seguro construido como un multi-sistema operativo principal. Navegador Gazelle del núcleo es un sistema operativo que gestiona exclusivamente la protección de los recursos y compartir a través de los directores del sitio web. Esta construcción expone los problemas de diseño complejo que ningún trabajo previo ha identificado, como la protección del legado de cross-script source origen, y transversal principal, cruzar pantalla de proceso y la protección de los acontecimientos. Elaboramos sobre estas cuestiones y ofrecer soluciones integrales.


Nuestra implementación de prototipos y la experiencia de evaluación indica que es realista para convertir un explorador existente en un multi-sistema operativo principal que los rendimientos de seguridad mucho más fuerte y la solidez con un rendimiento aceptable y compatibilidad hacia atrás.


Eso es todo por el momento hasta la proxima entrega. Saludoss.

WINDOWS 8


Se que a muchos les sorprendera que hablemos ya de que saldra a la luz el Windows 8 cuando estamos a menos de un mes para hacer el debut de Windows 7, Microsoft ha aprovechado el evento SIMO Network de este año, celebrado los días 22, 23 y 24 de septiembre en Madrid España, pais donde estamos recidiendo y a la que pudimos asistir, para presentar su nuevo sistema operativo a los asistentes. Alli pudimos asistir a la presentación de Windows 7 y su versión de servidor
Windows Server 2008 R2.

La presentación no me gusto demasiado, se centraron en explicar detalladamente tres o cuatro características que permite hacer los nuevos S.O., como por ejemplo en Windows 7 el modo XP y el sistema de discos duros virtuales, cuando me esperaba una demostración por encima de muchas de sus nuevas características. Aún así, es cierta manera lo entiendo, este año el SIMO ha tenido un cambio de dirección, orientado sobre todo para los profesionales, y no para el usuario doméstico (motivo por el cual el SIMO no rentabilizaba los últimos años y el año pasado lo cancelaron).

Ambos S.O. fueron puestos en libertad para la industria a finales de julio, pero a finales de agosto aparecieron las primeras planificaciones del próximo Windows 8. Nuevos datos han surgido, obviamente no en el SIMO, gracias a una entrevista que realizó un reportero de ZDNet a Anders Vindberg, miembro de Microsoft Technical en la división de Administración y Servicios de Microsoft.

Según el reportero, las planificaciones de Windows 8 están muy avanzadas y existen 12 grupos de trabajo, de los cuales 8 o 9 dedicados a la gestión. Al mismo tiempo, dice que Stephen Chapman, entusiasta de tecnología, ha encontrado anuncios que apuntan a que Microsoft está haciendo ajustes en el interfaz de programación de la hibernación, reanudación e integración. También sobre el nuevo motor de compresión de archivos .TLZ y en protección del kernel.

La idea de Microsoft es lanzar cada dos años una nueva versión de su sistema operativo, debido a la polémica que surgió con la aparición de Vista (aunque Windows 7 casi cumplirá 3 años), por ese motivo, es de esperar que Windows 8 aparezca a finales de 2011 o en la primera mitad de 2012.

lunes, septiembre 21, 2009




El misterio de Google ha quedado resuelto. Los distintos logos de ovnis y platillos volantes que Google ha subido a lo largo de estas últimas semanas pretenden rendir tributo, en el día de su nacimiento, al escrito inglés Herbert George Wells, autor de la conocida obra La guerra de los Mundos, algo que nosotros ya intuíamos aquí cuando comenzó este expediente X.



El pasado 5 de septiembre Google subió la primera de las imágenes donde un ovni abducía una de las letras del buscador, el 15 volvió a cambiar su logotipo habitual por un platillo volante sobrevolando círculos concéntricos en un campo de maíz. Pero, además de esto, Google añadió en su Twitter dos números que, una vez introducidos en Google Earth, remitían a las coordenadas del primer lugar donde se produjo el primero de los avistamientos en la guerra de los mundos.


Micheal Lopez, portavoz de la compañía, explica en el Blog Oficial de Google que: “La inspiración para la innovación en tecnología y diseño puede venir de muchos lugares; hemos querido homenajear a H.G. Wells como un autor que promovió la reflexión fantástica acerca de lo que es posible en este planeta y más allá. Y tal vez pasar un buen rato mientras lo hacíamos”.



El enigma ha quedado resuelto hace pocas horas, pero en nuestro país nos enfrentábamos a otro misterio añadido junto al último doodle. Cuando los internautas españoles pasaban el ratón sobre la imagen se leía: Not for Spain, mientras que los internautas de otros países podían leer que se trataba de la conmemoración del nacimiento del popular escritor.

El mismo portavoz de Google aseguraba, a colación de esto, que: “Ha sido un error humano, ese doodle no debería haber aparecido en España. Algunos doodles que se hacen son de carácter mundial y otros únicamente local. En este caso nuestros ingenieros se han confundido publicándolo en nuestra página. No obstante, el problema ya está resuelto”.

viernes, septiembre 04, 2009

Google patenta su pagina de inicio y renueva Gmail


El aspecto del buscador ya es propiedad del gigante; mientras, el servicio de correo se renueva.
Un página en blanco, un cuadro de búsqueda, dos grandes botones inferiores y algunos enlaces. Este sencillo diseño, marca de la casa de Google, ya es oficialmente una patente de diseño del buscador.


Tras más de cinco años y medio luchando por conseguirlo, la compañía ha conseguido convencer a las autoridades de registro de patentes de que la espartana composición de su página de inicio es un diseño registrado del que Google tiene la titularidad.

Hay que destacar que, Google tuvo menos problemas para patentar el diseño de sus resultados de búsqueda que el diseño de la página de inicio, ya que ambos fueron presentados a la Oficina de Patentes y Marcas de EE.UU en 2004 y los resultados obtuvieron la patente a finales de 2006.

Desde que se presentó la solicitud de patente hace más de cinco años, Google ha hecho modificaciones en los enlaces, cambiando las Noticias y Grupos a otra parte de la página. Seguramente Google cuenta con que su patente es lo suficientemente amplia para incluir todas estas modificaciones.

Es lógico que Google quiera tener bien atada la propiedad de la página de inicio de su buscador, que tan cotidiano se ha vuelto en el día a día de casi todos. Por fin, y después de cinco años de espera el gigante de Redmond tiene la patente de la home, que se une a la de la página de resultados (ya en sus manos desde 2006).

El formato simple y ligero del buscador ya ha sido usado en otras páginas contra las que Google podría ejercer sus derechos de propiedad del diseño. Sin embargo, no es probable que lo haga, aunque si la carrera por los buscadores continúa esta nueva temporada podría hacerlo dado el éxito de su home.

Esta buena noticia para la compañía llega acompañada de cierta inquietud por el debate que la Unión Europea iniciará el próximo Lunes en Bruselas en torno a la legalidad de Google Books. Hoy precisamente se cumple el plazo para hacer alegaciones en contra de un proyecto que podría suponer el monopolio del mercado de las obras digitales, ya que deja en manos de la compañía la explotación de millones de títulos tras el pacto firmado con los editores y autores norteamericanos el año pasado, y que también está pendiente de aprobación allí.

Mientras que Google Books supondría la vuelta al circuito comercial de títulos descatalogados y prevé compartir los beneficios con autores y editoriales de las obras, desde países como Alemania se pide una retirada del proyecto y hasta se ha firmado un manifiesto contra él. De momento en la mayoría de los países de Europa como Italia o España, e incluso en Francia, se muestran favorables al escaneo de sus obras.

A todo ello hay que unir los últimos retoques del servicio de correo de Google que permite la importación de los mensajes que haya en otras cuentas, e incluso el redireccionar los que lleguen a otras cuentas a Gmail, para así poder centralizar todos los mensajes. Además, todo el que quiera personalizar su bandeja de entrada podrá hacerlo con cuatro nuevos temas añadidos. Y para el que quiera convertirse en un Ninja de Gmail, Google pone a su disposición una guía para aprovechar la cuenta al máximo.

! bueno amigos hasta la proxima entrega

lunes, agosto 24, 2009

La brecha digital: ¿oferta o demanda?


La brecha digital también puede explicarse desde el lado de la demanda. Se trata de entender por qué aquellos que podrían tener acceso a Internet peo no lo utilizan se resisten a hacerlo.

Se define el concepto de brecha digital de la demanda como los hogares que pueden tener acceso al servicio de banda ancha pero que no lo compran. Este tipo de estadística no ha sido históricamente fácil de calcular debido a que la cobertura tecnológica (en otras palabras, los hogares que pueden acceder a la banda ancha) no ha sido habitualmente medida por entidades públicas o regulatorias. Sin embargo, en el curso del último año, en el que han sido elaboradas numerosas estrategias nacionales de banda ancha el análisis ha requerido un estudio profundo sobre cómo de grande era el déficit de cobertura.

En los Estados Unidos a comienzos de 2008, de acuerdo con la FCC, el 96% de los hogares tenía la posibilidad de acceder a la banda ancha por medio de cable módem, mientras que el 82% lo podía hacer mediante DSL. Tal como las estadísticas de penetración indican, el 57% de los hogares estadounidenses está hoy comprando el servicio. Así, el 25% de los hogares podría acceder a la banda ancha pero no lo hace.

Esta diferencia varía por estados. En estados como Mississippi, la brecha de la demanda es del 60%, mientras que la brecha de la oferta es tan sólo del 9% (hogares no cubiertos por el servicio). En el caso de Georgia, donde la adopción del servicio es más elevada, la brecha de oferta es del 8% de hogares, mientras que la de la demanda es del 34%.

En Alemania, de acuerdo con la ‘Estrategia Nacional de Banda Ancha’, publicada en febrero de este año, el 98% de los hogares (39,7 millones) tiene la posibilidad de acceder al servicio de banda ancha. De todos ellos, casi 37 millones están cubiertos por plataformas DSL, 22 millones por televisión por cable (y, por lo tanto, podrían acceder a la banda ancha por cable módem) y 730.000 pueden llegar a Internet por medio de plataformas inalámbricas, como el satélite).

En ambos países, una porción importante de la población que no accede a Internet mediante banda ancha no lo hace debido a factores que no tienen que ver con la falta de disponibilidad del servicio.

Comprendiendo la brecha digital de la demanda

El estudio “Inhibidores de uso de las TIC en la sociedad española” preparado por ENTER describió la tipología social resultante del proceso de introducción y extensión de las TIC definiendo inicialmente dos categorías de individuos: aquellos que adoptan la tecnología después de haber sido expuestos a la misma (denominados ‘ajenos’) y aquellos que no la adoptan. Al mismo tiempo, dentro del universo poblacional que adopta la tecnología, existe un subgrupo denominado por el estudio ‘población esporádica’, compuesto por aquellos que pese a haber sido expuestos a la tecnología, no la han adoptado en el sentido de que la usen con una periodicidad quincenal, mensual o trimestral. Se considera que estos dos grupos sociales constituyen el núcleo de la brecha digital de la demanda. Las razones aducidas para explicar este comportamiento son sorprendentemente consistentes.

El porcentaje de la población que no accede a Internet varía por país pero, en general, representa una cifra significativa. El estudio español citado más arriba muestra que los no usuarios (ajenos y esporádicos) suman un 52,9% de la población adulta (julio 2007). En los Estados Unidos, la investigación realizada por Pew Internet & American Life indica que los no usuarios suman el 21% (junio 2009). En el Reino Unido, el porcentaje es del 26%, pese a que esta cifra incluye solamente a la población ajena, que en España es del 40,2% (marzo 2009).

¿Qué aducen estos no usuarios como razones que explican su no adopción? El estudio de los Estados Unidos agrupa las razones en cuatro categorías (ver tabla). La razón más importante aducida por el grupo de no usuarios es la falta de relevancia del servicio; en otras palabras, ‘no uso la banda ancha o no accedo a Internet porque no me interesa’. Este porcentaje se reduce para aquellos hogares que acceden a Internet mediante banda estrecha (dial-up) y aquí aumenta la importancia del factor económico.

En otras palabras, en esta categoría de usuarios por banda estrecha, se le encuentra una mayor relevancia al servicio, pero el precio es una barrera a la adopción de la banda ancha. En un subgrupo todavía importante, la relevancia continúa siendo limitada, lo que determina el bajo incentivo para adoptar banda ancha. Es importante remarcar, sin embargo, que en ambas categorías de usuarios, la relevancia limitada del servicio es una barrera importante a la adopción de banda ancha.

En el Reino Unido, las razones aducidas no son muy distintas a las estadounidenses. Como puede observarse, tanto el orden de la importancia de las razones como la cantidad de respuestas en cada categoría son bastante consistentes entre ambos estudios: relevancia limitada es el primer factor, seguido por el precio de servicio y ordenador, la disponibilidad de servicio, y el conocimiento para operar la tecnología.

Si se excluye la variable de disponibilidad de servicio (explicada más arriba en términos de brecha de la oferta), corresponde ahora ahondar en las otras razones que explican la no adopción. ¿Existe algún tipo de perfil sociodemográfico que podría ayudar a explicar la relevancia limitada (o la falta de interés), el obstáculo económico y la falta de facilidad de uso?

Una explicación sociodemográfica de la brecha digital de la demanda

Los estudios de diferentes países coinciden de manera sorprendente en determinar el perfil socio-demográfico de aquellos individuos que no usan Internet o adoptan la banda ancha. En los Estados Unidos, los factores con una correlación negativa con la adopción de la banda ancha son:

1) educación (nivel que no excede el ciclo secundario)
2) edad (mayor de 65 años)
3) medio rural
4) etnia (de raza negra -este último factor está correlacionado con el nivel educativo).

En el estudio español, los factores de tipo socio-demográfico que inhiben la adopción de la informática e Internet son

1) educación (tener menos de estudios secundarios completos)
2) edad (ser mayor de 45 años y especialmente, de 65 años)
3) situación laboral (trabajador sin cualificación, jubilado o ama de casa)
4) ingresos (inferiores a 900 euros netos mensuales).

Finalmente, en el estudio británico, las variables más importantes que explican la no adopción de Internet son:

1) nivel socioeconómico (segmentos C, D, y E)
2) edad (mayor de 65 anos)
3) ausencia de niños en el hogar.

Más allá de los factores idiosincráticos de cada medio, las variables comunes identificadas en los tres estudios incluyen edad (tres menciones), educación (dos menciones), y nivel socio-económico (dos menciones). La variable etaria y el nivel socioeconómico ya han sido estudiados en tanto factores que explican procesos de adopción de nuevas tecnologías. Le educativa sin embargo merece ser analizada más porque es la que puede ser influenciada por políticas públicas. El nivel educativo por hogar es un factor explicativo importante en la difusión de banda ancha. El país con más alta penetración de banda ancha por hogares del mundo es Corea del Sur (91%), de acuerdo con las estadísticas de la OCDE.

Amén de los factores regulatorios que explican la ausencia de brecha digital de la oferta, el nivel educativo coreano es una variable explicativa importante cuando se trata de entender la brecha digital de la demanda. La población coreana es comparativamente más educada que la japonesa o la americana. Los habitantes de Corea del Sur completan en promedio 15 años de educación, uno más que los japoneses o estadounidenses, y el hogar coreano tiene un 50% más años de educación que el hogar promedio estadounidense.

Esta estadística refleja también el impulso dado por los padres coreanos a sus hijos en el terreno educativo, lo que implica que la banda ancha termina siendo una necesidad educativa del hogar. La importancia que tiene la variable educativa en el impulso de la adopción de banda ancha es un factor que debe influenciar la adopción de políticas públicas en el terreno educativo y de tecnología de la información y las comunicaciones

En la identificación de las variables que explican la brecha de la demanda, algunas son estructurales (grupo etario, nivel de ingresos). En particular, la influencia del nivel de ingreso puede, en el contexto de la crisis económica actual llegar a afectar al nivel de penetración de banda ancha. Por ejemplo, el estudio de Pew Research indica que en los últimos 12 meses, el 9% de los usuarios de Internet en los Estados Unidos ha cancelado o reducido la suscripción para el servicio de banda ancha debido a la presión económica.

Con respecto a la variable educativa, esta puede ser influenciada por políticas públicas, no sólo de tipo tradicional sino también mediante la educación informal. Algunos gobiernos, como el sueco y el holandés, han avanzado significativamente en este terreno, orientados por políticas de universalización de la banda ancha. Otros gobiernos, confrontados por la necesidad de crear empleo a corto plazo, prefieren asignar recursos de inversión a la construcción de accesos que cubran los hogares no servidos, y no focalizarse en planes de promoción de demanda que se centren en los factores inhibidores que impiden el crecimiento de la penetración en la población ya cubierta por el servicio de banda ancha. Este es el caso de los Estados Unidos y su reciente programa de estímulo. En todo caso, la comprensión de ambos aspectos de la brecha digital permitirá tomar decisiones de política pública basadas en aquellos objetivos que se intenta maximizar.

La brecha digital se define como la separación que existe entre las personas (comunidades, estados, países…) que utilizan las Tecnologías de Información y Comunicación (TIC) como una parte rutinaria de su vida diaria y aquellas que no tienen acceso a las mismas y que aunque las tengan no saben como utilizarlas.

Es una expresión que hace referencia a la diferencia socioeconómica entre aquellas comunidades que tienen accesibilidad a Internet y aquellas que no, aunque tales desigualdades también se pueden referir a todas las nuevas tecnologías de la información y la comunicación (TIC), como el computado personal, la telefonía móvil, la banda ancha y otros dispositivos. Como tal, la brecha digital se basa en diferencias previas al acceso a las tecnologías. Este término también hace referencia a las diferencias que hay entre grupos según su capacidad para utilizar las TIC de forma eficaz, debido a los distintos niveles de alfabetización y capacidad tecnológica. También se utiliza en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no.

El término procede del inglés digital divide, utilizado durante la Administración Clinton, Algunas referencias, citan a Simon Moores como acuñador del término, Hoffman, Novak y Schlosser se refieren a Lloyd Morriset como el primero que lo empleó para hacer referencia a la fractura que podía producirse en los Estados Unidos entre “conectados” y “no conectados”, si no se superaban las serias diferencias entre territorios, razas y etnias, clases y géneros, mediante inversiones

Para Pippa Norris, se trata de un fenómeno que implica tres aspectos principales: la brecha global (que se presenta entre distintos países), la brecha social (que ocurre al interior de una nación) y la brecha democrática (que se refiere a la que existe entre quienes participan y quienes no participan de los asuntos públicos en línea).

Uno de los aspectos más recientes que han sido analizados sobre la brecha digital, tiene que ver no solamente con el acceso a Internet, sino con la calidad de dicho acceso y la disponibilidad de conexiones de banda ancha que permitan acceder a contenidos multimedia en tiempos y costos adecuados al contexto de los usuarios.

De forma específica, el investigador holandés Jan van Dijk identifica cuatro dimensiones en el acceso: la motivación para acceder; el acceso material; las competencias para el acceso; y el acceso para usos avanzados (o más sofisticados). Plantea que la brecha digital está en constante evolución, dado el surgimiento de nuevos usos tecnológicos, que son apropiados más rápidamente por aquéllos que tienen el acceso en forma más permanente y de mejor calidad, determinado por dicho ancho de banda.

Según la Organización Mundial del Comercio, las nuevas oportunidades tecnológicas (y del libre comercio a escala global) serán el motor de una “tercera revolución industrial”. Gracias a las TICs, se sostiene, se podrán anular las brechas de pobreza y de falta de recursos existentes, confrontándose en el campo de la economía, de las transformaciones políticas y sociales, de la identidad, en la cultura y en el poder, modelando nuevas relaciones a escala global.

Los países del Norte son los principales propietarios y beneficiarios de la World Wide Web, así como de la industria del hardware, del software y de la producción de los contenidos, el 70% en inglés. El Sur permanece excluido, y con ello aumentan las diferencias sociales regionales, y se impone un modelo de desarrollo “desde el Norte”, a su imagen y semejanza.

Según Internet World Stats, actualizado en el 2005, de los 985 millones de internautas conectados, casi el 70% vive en los países industrializados, donde reside el 15% de la población mundial. Mientras que Europa y Estados Unidos suman 500 millones de usuarios, en todo el continente africano no hay más que 4 millones, y estas diferencias se manifiestan asimismo entre hombres y mujeres, ciudad o campo, edades, estatus sociales, paralelamente a las “brechas” de siempre: el acceso a la sanidad, a la educación, la mortalidad infantil, el hambre, la pobreza.

Datos de 2006 de la Unión Internacional de Telecomunicaciones muestran que mientras el 58.6% de los habitantes de los países desarrollados tienen acceso a Internet, en los países en vías de desarrollo apenas el 10.2% de los habitantes tiene acceso a esta tecnología.

TIPOS DE BRECHA DIGITAL




Brecha Digital de Acceso

Este tipo de Brecha Digital se basa en la posibilidad o bien la dificultad que una persona puede llegar a tener para disponer de una computadora conectada al Internet, esto de igual forma incluye lo que son las redes avanzadas como tener servidores.

Brecha Digital de Uso

Este tipo de Brecha Digital se basa en la capacidad o la dificultad que una persona tiene para usar las tecnologías, en base a que se ha encontrado que hay una diferencia entre llegar a tener acceso a la tecnología y el de saber usar la tecnología, se ha implementado lo que es una alfabetización digital, todo esto relacionado con la disminución de la Brecha Digital.

Brecha Digital de Calidad de Uso

Este tipo de Brecha Digital se basa en la limitación o falta de posibilidad que las personas tengan acceso a las diferentes herramientas que proporciona la red, eso se define como por ejemplo el saber que existen recursos en la red como por ejemplo de medicina, redes sociales o bien de negocios por medio de la red.

10 razones para ir pensando en pasarse a Windows 7


Quedan menos de dos meses para el lanzamiento oficial de Windows 7, el sistema operativo de Microsoft llamado a suceder al obsoleto XP y al denostado Vista. Ya se conocen muchas funcionalidades del nuevo programa, con importantes mejoras sobre sus antecesores.

Windows 7 se venderá las próximas navidades

Windows Vista, elegido fiasco del año
El 22 de octubre se presentará oficialmente Windows 7, el sistema operativo de Microsoft sucesor de Vista. Un acontecimiento muy esperado por fabricantes de hardware y software, y con el que Microsoft pretende redefinir su estrategia ante competidores como Apple y Google.

En la revista eWeek encontramos un avance de algunas de las mejoras más destacadas que introducirá Windows 7:•Mejor gestión de la memoria: uno de los mayores problemas de Vista es su lentitud. Windows 7 incluye programas de gestión de la memoria que asignan recusos sólo a las aplicaciones abiertas, por lo que las que no están activas no restan velocidad al resto.
•Barra de tareas; ha sido rediseñada añadiendo simplicidad. Los programas abiertos se muestran con sus respectivos logos. Al pasar el cursos sobre ellos la aplicación se muestra en una pequeña ventana.

•Modo XP: para evitar los problemas de compatibilidad que arrastraba Vista con su predecesor, se ha introducido un modo de virtualización XP, que permitirá a las aplicaciones más antiguas funcionar sobre XP dentro de una máquina con 7 instalado.
•Federated Search: una mejora en las funciones de búsqueda, que permitirá desde explorar intranets hasta personalizar búsquedas online.

•Librerías: una función para mejorar la forma de ordenar y acceder a la información. El usuario podrá seleccionar carpetas con contenido de diferentes partes del sistema y agruparlas en una misma Librería, donde no se almacena sino que se ordena el contenido. Por defecto Windows 7 traerá las Librerías de Documentos, Música, Imágenes y Videos.

•Control de la cuenta de usuarios: para evitar las molestias originadas por las continuas actualizaciones del sistema, los usuarios podrán seleccionar entre “No notificar”, “Notificar siempre” y otras dos opciones intermedias cada vez que in programa se actualice automáticamente.

•Menú Inicio: será más personalizable. Los usuarios podrán configurar el aspecto y comportamiento de enlaces, iconos y menús.

•AppLocker: algunas versiones de Windows 7 (Enterprise y Ultimate) permitirán a los administradores de sistemas bloquear el acceso a determinadas aplicaciones.
•Nuevos fondos de pantalla: algunos serán realmente espectaculares, al estilo del estilo psicodélico creado por los Beatles con su Magical Mystery Tour.

•Adiós Vista y XP: como no, tal vez lo mejor de Windows 7 sea contar con un sistema operativo sólido, moderno y eficiente. De Vista ya se han escuchado suficientes improperios y XP es un buen programa, pero ya tiene ocho años. Con 7, por fin Microsoft entra en el siglo XXI.

domingo, agosto 23, 2009

Windows 7 será gratuito durante 120 días



Como su predecesor, Windows 7 se podrá utilizar durante 120 días sin tener que activar la clave de activación de producto.
Aunque generalmente Microsoft ofrece un límite de 30 días para que los usuarios activen su copia del sistema operativo de la compañía, un comando poco conocido y diseñado para los administradores de empresas se puede utilizar para 'resetear' la cuenta atrás hasta tres veces.

Windows Secret publicó ayer instrucciones paso a paso explicando cómo utilizar una línea de comando para añadir 90 días al periodo de gracia de 30 días que ofrece Microsoft. La compañía permite a los usuarios instalar y ejecutar cualquier versión de Windows 7 durante 30 días sin tener que hacer uso de la clave de activación, una serie de 25 caracteres alfanuméricos que confirma que la copia del sistema operativo es legal. Durante esos 30 días Windows 7 opera como si hubiese sido activado y una vez acabado este tiempo empieza a mostrar frecuentes mensajes en la pantalla.

Pero con el comando “slmgr-rearm” los usuarios pueden poner a cero ese tiempo de activación y contar con otros 30 días, afirman en Infoworld. Este comando se puede utilizar hasta tres veces lo que da un margen de cuatro meses para activar la copia de Windows 7.

25 alternativas a The Pirate Bay


Hace algunos dias escribí sobre la "inevitable desaparicíon" de el portal de descarga THE PIRATE BAY y estoy seguro que la inmensa mayoria de los que usamos internet nos cayo como un balde de agua helada tan terrible noticia... Pero como sabemos todos eso no significaria el fin.... ya que siempre he dicho desde los ataque al entrañable NAPSTER " nuestro mesía" desaparecido cruelmente y a destiempo que esto tipos de programa y web solo desaparecerían cuando TAMPOCO EXISTA LO QUE CONOCEMOS COMO INTERNET y si lo escribo en mayuscula para que se entienda.

Pues bien ahora les invito a leer este interesante articulo acerca de las alternativas que felizmente siempre encontraremos...De todos modo os pido que no olvidemos nunca a los que nos enseñaron los programas del pasado " a conocer la libertad de intercambio............


La bahía pirata va a cambiar de dueños y con ello llega también un cambio de filosofía en el que se permitirá descargar material con copyright pagando una cantidad de dinero de manera mensual. Pero The Pirate Bay no es imprescindible, desde MuyComputer nos informa de 25 alternativas al mismo que hará que nuestra búsqueda de Torrents no se vea mermada por la ausencia del servicio que ofrece The Pirate Bay. En Internet hay multitud de servicios con la misma utilidad, veamos la recopilación.

El tracker de The Pirate Bay soporta la mitad del tráfico mundial de descargas Torrent, que deje de estar en funcionamiento como hasta ahora es un gran cambio y los usuarios notarán su ausencia en un principio. De hecho ya hay usuarios que han recopilado 21,3 Gbytes de enlaces del tracker para que sian en funcionamiento tras el cierre del mismo. Sin embargo que The Pirate Bay deje de ofrecer su servicio tal y como lo conocemos no es el fin del mundo. Veamos las distintas opciones que ofrece la Red de redes a día de hoy.
25 alternativas a The Pirate Bay.

The Pirate Bay ofrecía una solución completa que incluía un buscador de Torrents, indexador de los mismos y un tracker funcional abierto para todos para que se realice el intercambio de pares. En el mercado sólo hay cuatro opciones que ofrecen una Alternativa plena:

1. Torrentbox
2. 1337x
3. H33t
4. Demonoid (semi-privado)


A continuación os mostramos el resto de opciones ordenadas según la utilidad que ofrezcan, por lo que cada usuario puede complementar las carencias de uno con otro servicio:

Indexadores de Torrents

Dichos sitios tienen directorios de archivos Torrent pero no ofrecen un servicio abierto de tracker para todos los archivos. Mininova dispone un tracker pero sólo permite el uso del mismo para Torrents seleccionados por ellos.

5. Mininova
6. isoHunt
7. Torrentreactor
8. BTjunkie


Meta buscadores Torrent

Los motores de meta-búsqueda de archivos BitTorrent son otro tipo de sitios web Torrent. No tienen tracker ni tampoco hospedan ningún archivo torrent en sus servidores, realizan búsquedas en sitios de terceros y te ofrecen los enlaces de forma directa:

9. Torrentz
10. Nowtorrents
11. Qtorrents
12. Torrent-Finder


Trackers privados (registro abierto)

La mayoría de grandes trackers requieren una invitación para poder entrar, sin embargo siempre hay algunos que permiten la entrada a nuevos miembros. Os dejamos cuatro a continuación, más en Btracs.

13. RTN
14. BiteMyTorrent
15. BitShock
16. TorrentIt


Trackers BitTorrent


Los servicios de indexación de Torrents y motores de meta-búsqueda no tienen ningún sentido si no se usa un tracker para la descarga, donde se gestionan las conexiones entre los clientes del mismo.

17. OpenBitTorrent
18. PublicBitTorrent
19. The Hidden Tracker
20. Denis.Stalker



Alternativas Pirate Bay y clones del mismo
La última categoría de alternativas a Pirate Bay son los proyectos de gente que han reconstruido el servicio, ejemplo de ello son:

21. Pirate Bay Torrents Clone
22. Pirate Bay HTML Clone
23. Torrage: Torrent API
24. Tracker Software


¿No eran 25 alternativas?


Sí, tenien razón, son 25 alternativas. La última no encaja en ninguna de las anteriores y por ello lo dejamos aparte. Se trata de Google, el buscador con más uso a nivel mundial. El srvicio de indexación de Google también indexa archivos según su tipo ó extensión. Por lo que con una búsqueda en la que añadamos filetype:torrent nos podría encontrar los archivos tipo .torrent que tengan relación con nuestra búsqueda. A continuación dejamos un ejemplo de búsqueda de ubuntu con el argumento antes descrito:
25. Google


Como siempre los animos a que nos ayudemos a completar la lista, si tenien alguna opción más dejar constancia en los comentarios para compartir vuestro conocimiento con toda la comunidad web.

Las 100 webs más peligrosas


Año tras año la compañía de seguridad Symantec, conocida entre otros por sus productos Norton, ha ido recopilando sitios web que contienen graves amenazas para tu equipo. Acaba de presentar el Top 100 de este verano, hasta agosto. Con esa lista pretende anunciar a la gente sobre los problemas que representan dichos sitios web y alertar sobre ellos si se hace uso de su plataforma Norton Safe Web. De la lista se pueden extraer muchos datos comunes que pueden servir como referencia para prevenir.


A modo de lista preventiva, Symantec ha organizado los 100 sitios web con mayor índice de malware y virus en una lista ordenada según el grado de peligrosidad. Los sitios que ocupan la media de toda la lista son más 18.000 problemas de seguridad por página entre troyanos, malware y virus embebidos que podrían convertirse en grandes problemas para el usuario que los visite.


Entre los datos que ofrece Symantec es que la media del número de amenazas por página de la lista The Dirtiest Websites es aproximadamente 18.000 frente a las 23 amenazas por sitio de la totalidad de webs catalogadas por el servicio Norton Safe Web. De la lista de 100, 40 sitios tienen más de 20.000 amenazas y 48 sitios son de contenido para adultos, el resto - 52 - se reparten temas más variopintos como son: caza de ciervos, cathering, personajes de skating, webs de electrónica y de servicios legales, entre otros.


Tres cuartas partes de las webs reflejadas en la lista han distribuido malware durante más de 6 meses. Respecto a las amenazas para equipos, los virus son el producto estrella seguidos de riesgos de seguridad y en último lugar exploits para el navegador.

XP pirata


3 años de cárcel por XP pirata

Los creadores y distribuidores de “Tomato Garden”, una versión “personalizada” de Windows XP, han sido condenados a tres años y medio de prisión y multa de 103.000 euros por infracción de los derechos de reproducción, copia y distribución ilegal de Windows XP. Tomato Garden es la copia de XP (pirata) más popular en China y ha sido descargada por 10 millones de usuarios desde su creación en 2004. Según la agencia Xinhua, es el mayor caso en el país asiático que afecta a la propiedad intelectual informática.

Tomato Garden es una de las copias “personalizadas” de Windows que abundan en las redes de intercambio de archivos y portales de descarga directa. De forma general, los autores de estas versiones quitan servicios para hacerlas más ligeras, añaden herramientas o aplicaciones para completarlas, modifican el instalador para automatizar el proceso, agregan temas visuales y un largo etcétera.


Algunas son muy apreciadas por su nivel de terminación o especialización y por qué no decirlo, por integrar herramientas automáticas para saltar los sistemas antipiratería del sistema operativo y conseguir su activación sin la licencia correspondiente. Como la mayoría de ellas, Tomato Garden se ofrece/ofrecía gratuitamente aunque en este caso, se ha tenido en cuenta el ánimo de lucro ya que la página web donde estaba alojada obtenía más de 10.000 euros mensuales por la publicidad inserta en la misma y que estaba relacionada en su mayor parte con la descarga de este Windows XP.


La compañía Chengdu Gongruan, que gestionaba el portal web, también fue declarada culpable en el juicio, sus ingresos han sido confiscados y está condenada a pagar una multa de 8,77 millones de yuanes (902.000 euros, 1.803.000 dólares). Un juicio que llegó tras la demanda de Microsoft ante la Administración Nacional de Derechos de Reproducción de China por las actividades del grupo condenado.

Microsoft, Amazon y Yahoo!, contra GOOGLE

Frente común para evitar la digitalización
el proyecto del buscador


Lo que empezó siendo una aventura pionera y emocionante en 2004 se está transformando en una pesadilla de proporciones monumentales para Google. Cada vez parece más difícil que el acuerdo pendiente de aprobación judicial, al que la empresa llegó el pasado octubre con autores y editores para digitalizar todos los libros del planeta y vender a través de Google Books millones de ejemplares descatalogados, llegue a buen término. Hace dos meses el Departamento de Justicia anunció la apertura de una investigación anti monopolio contra Google y, según The New York Times, una coalición llamada Open Book Alliance, que incluye a tres de los principales enemigos del gigante digital -Yahoo!, Microsoft y Amazon-, va a solicitar directamente al Departamento de Justicia que impida el acuerdo por ser "anticompetitivo".

Además, hace dos días, el escritor y abogado Scott E. Gant solicitó ante el juzgado de Nueva York encargado de revisar el acuerdo que éste sea rechazado. "Es una negociación comercial y no debería ser decidida por un juez, sino negociarse por las vias comerciales habituales. Google y sus socios están forzando el acuerdo, de forma que millones de autores, cuyos derechos de autor aún están vigentes, no se enterarán de que esto está ocurriendo", explica en los 47 folios que ha presentado ante el juez. Los autores tienen la opción de acogerse a los términos del acuerdo, o rechazarlo y negociar con Google de forma individual.

En octubre de 2008, Google anunció que el Sindicato de Autores y la Asociación de Editores Estadounidenses habían aceptado la creación de un registro que controlaría todo lo que se ofreciera a través de Google Books. Pero el supuesto altruismo del proyecto -acceso a millones de libros descatalogados, compartir libros fuera de circulación, una nueva plataforma de venta para autores y editores- empieza a ser visto como una amenaza para todos en el negocio editorial.

Por un lado están quienes, como Amazon, pueden ver sustancialmente reducidos sus ingresos por la venta de e-books, puesto que el acuerdo le entrega a Google la llave para comercializar en exclusiva millones de libros descatalogados. Microsoft, compañía también inmersa en la catalogación de libros, se ha sumado al frente contra Google Books.

Además de algunos autores a título personal, no se descarta que tomen medidas contra Google la American Society of Journalist and Authors y la Asociación de Escritores de Ciencia-Ficción y Fantasia (SFWA), que no participan en ninguna de las acciones legales.

Google se defiende alegando que están invirtiendo 125 millones de dólares (87,2 millones de euros) en crear un registro mundial de autores y en anunciar por todo el planeta la creación de dicho archivo para que todo autor sepa que su libro va a llegar a Google Books. La decisión está en manos del juzgado, que anuniciará su decisión el 7 de octubre

jueves, agosto 20, 2009

Internet necesita cambios fundamentales para sobrevivir


Mejorar la seguridad de los protocolos de Internet TCP/IP es la mejor inversión en seguridad.

Los protocolos de Internet tienen que revisarse porque les faltan la seguridad apropiada. Al menos eso es lo que opinan los expertos, que piden una revisión de TCP/IP acorde a los tiempos modernos.

Los protocolos TCP/IP básicos no son apropiados para el Internet moderno y es necesario un nuevo sistema.

Afirmando que hay problemas fundamentales en Internet, los expertos en seguridad los han comparado con las antiguas vías romanas “que los enemigos utilizaron contra ellos”. La estructura básica de TCP/IP no es segura; se creó hace 40 año para un modelo informático muy diferente en el que se tenía muy poco en cuenta la seguridad. “Esto significa, añaden los expertos, que atacantes de otras naciones y organizaciones están amenazando las bases de datos de empresas y organismos estatales y haciendo que Estados Unidos no sea seguro.

Son muchos los que opinan que asegurar los protocolos TCP/IP podrían ahorra gran cantidad de dinero que ahora se destina a la seguridad, y sólo realizando algunos cambios y afirman que la mejor inversión en la seguridad global es mejorar los protocolos de Internet.

Los robos de identidad online crecen un 600%


Las principales causas serían las dificultades económicas y la sofisticación de las 'artimañas' de los hackers, según un informe de Panda Labs.

Cada día, aparecen una media de 37.000 nuevos ejemplares de virus, gusanos, troyanos y otras amenazas de seguridad. De éstos, el 71% son troyanos, en su mayoría destinados al robo de identidad, un software malicioso que ha crecido un 600% desde hace un año.

Según datos de PandaLabs, en los primeros siete meses de 2009 han recibido 11 millones de nuevas amenazas, de las cuales 8 millones son troyanos, resultado que contrasta con la media de 51% de los mismos que recibía la compañía en 2007. Cifras importantes cuando la mayoría de los troyanos son bancarios, encaminados a conseguir datos de tarjetas de crédito o contraseñas de servicios de banca online.

Los hackers ya no se conforman con robar su login y password al usuario, ahora intentan engañar a sus víctimas llevándoles a cualquier plataforma o sitio online donde pueden tener sus datos bancarios almacenados o pueden introducirlos en algún momento. Así, cada vez son más populares los ataques de phishing dirigidos a plataformas tipo Paypal o Amazon, aunque sí resulta curioso que también se hayan abarcado portales de ONG, por ejemplo.

Según Panda, las tretas más populares para “pescar” internautas son la distribución de mensajes a través de redes sociales con URL falsas, la clonación de páginas web, el envío de sms engañosos y la contaminación del ordenador con spyware.

miércoles, agosto 19, 2009

The Pirate Bay a punto de desaparecer


Antes de que pase a mejor vida, se ha lanzado una copia que contiene la mayor parte de torrents almacenados en el sitio.

The Pirate Bay, una de las webs más utilizadas por los internautas para buscar películas, series o música, tiene los días contados a expensas de transformarse en algo muy diferente tras su compra por Global Gaming Factory X.

Antes de que esto ocurra, un usuario se ha encargado de que la mayor parte del contenido de la plataforma de enlaces a descargas no pase al olvido, realizando una “imagen” de casi toda la web que contiene exactamente 873.671 torrents e incluso una copia del diseño de la página actual.

Todos los archivos se pueden descargar a través de un único torrent que pesa 21,3 GB, el cual supuestamente podría ser utilizado para poder poner en funcionamiento The Pirate Bay en caso de que su nueva finalidad y naturaleza no sea del gusto de los usuarios.

Pese al empeño no ha podido salvarse todo el contenido, ya que en realidad la plataforma pirata aloja unos 2millones de torrents. Además, en el caso de que en un futuro se pretenda poner en marcha la copia el gran tamaño del archivo requerirá usar un servidor de altas prestaciones.

La compañia Sueca de video juegos Global Gaming Factory X (GGF) acaba de anunciar que se encuentra en el proceso de adquisicion el famoso y controversial sitio The Pirate Bay por 7.8 millones de dolares.


Segun GGF, el proceso finalizara en Agosto, y a partir de ese momento la compañia introducira nuevos modelos de negocios al sitio para hacerlo legal y mantener a sus actuales propietarios alejados de la corte.

Los nuevos dueños de The Pirate Bay venderan acciones del sitio a inversionistas y tambien compraran Peerialism e introduciran su tecnologia des distribucion P2P en The Pirate Bay.
Al mismo tiempo, The Pirate Bay dejara de alojar y hacer seguimiento de torrents y utilizara un servicio de alojamiento y seguimiento de torrentes de terceros.

El CEO de Global Gaming Factory X, Hans Pandeya, dijo que la nueva manera en que el sitio funcionara, compensara a los proveedores de contenidos y propietarios de derechos de auto. Tambien dijo que esto resultara en que los archivos compartidos en el sitio sean de mejor calidad y que las descargas sean mas rapidas.

La tecnologia P2P de Peerialism aparentemente sera compatible con BitTorrent pero no se han brindado detalles al respecto todavia.
Los torrentes listados en el sitio no seran mas alojados en The Pirate Bay, sino que en un servicio de hostings de torrentes del cual aun no se ha dado a conocer el nombre. Este servicio de hosting tambien ofrecera su contenido a otros sitios de torrents y podra ser accesible a traves de una interfaz de programacion de aplicaciones (API).

El cofundador de Pirate Bay, Peter Sunde, declaro que esto asegurara que The Pirate Bay sea mas estable, con usuarios de BitTorrent dependiendo menos de los servidores del sitio y mas en servicios independientes.

En cuanto a los detalles de la transaccion, la mitad de los 7.8 millones por The Pirate Bay seran pagados en efectivo, mientras que el resto surgira de la venta de nuevas acciones. Peerialism sera comprada por 13 millones de dolares.

GGF declaro que ahora sera propietaria del internet cafe y centro de juegos del mundo

domingo, abril 12, 2009

Conficker














Quizá pocos virus informáticos han sido objeto de tanta atención mediática como Conficker, un hábil gusano que se ha convertido en un auténtico dolor de cabeza para el mundo entero, no solamente por su rápida expansión y su potencial capacidad de daño, sino también por la dificultad que implica erradicarlo de un sistema infectado.

Durante la última semana de marzo, se generó una gran avalancha de alertas que advertían sobre la activación de Conficker para el 1 de abril, lo cual implicaba que el programa descargaría en esa fecha una actualización de sí mismo y se autodistribuiría para infectar cientos de miles de nuevos ordenadores. De hecho así ocurrió, pero no hubo reportes de grandes daños, aunque el gusano sí se expandió. Para mediados de semana se estimaba que había ingresado a más de diez millones de máquinas a escala mundial. Infectó a aquellos equipos cuyos sistemas operativos no estaban actualizados, y que o no tenían un programa antivirus confiable y legal o, teniéndolo, no había sido actualizado oportunamente.

Conficker es un programa de tipo malware, una aplicación perversa cuya finalidad es causar estragos en el funcionamiento del ordenador y dejar la información contenida en éste a disposición de casi cualquier pirata informático. Infectó la red a finales de 2008. Se propaga a través de la descarga de archivos en la web, a través del intercambio de pendrives entre varias máquinas y también por medio de reproductores. Incluso puede llegar a una máquina navegando en sites dudosos y contaminados.

El objetivo de este programa malicioso es atacar las vulnerabilidades de Windows 2000, Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, e incluso la versión de prueba de Windows 7. Conficker sería capaz de extraer datos de la máquina infectada y tomar control de ella para dejarla al servicio de ciberdelincuentes.

Los expertos en seguridad, y en especial las firmas que desarrollan aplicaciones antivirus, hicieron un llamado a la calma, destacando que quien tuviera una aplicación protectora actualizada recientemente no corría riesgo alguno. Pero la amenaza mayor no es tanto este código malicioso en sí, según comenta Luis Corrons, director técnico de PandaLabs, en un comunicado de la firma: "No es más peligroso (que otra clase de malware), a pesar de que el hecho de que se actualice deja una puerta abierta a nuevos ataques, que podrían ser, estos sí, más peligrosos".

Y lo temible de este malware reposa en la dificultad de ser detectado por algunas aplicaciones antivirus, pues sus desarrolladores lo programaron de tal manera que se oculta en algunos datos que son reconocidos por los sistemas como seguros.

La firma Trend Micro advirtió que esta semana se registró cierta actividad del código, lo cual indica que sigue activo. Microsoft, que también trabaja en medidas para combatir a este y otro tipo de malware, está ofreciendo una recompensa de 250.000 dólares a quien dé detalles de quiénes están detrás del potente virus.

EUROPA aprieta en la Ley Antipirata















Para empezar, P2P viene de peer to peer que es algo así como 'de persona a persona' y se refiere a los redes que crean algunos programas como Ares, Kazaa, Shareaza, eMule, Limewire, etc. para que sus usuarios compartan música entre sí.

Al principio surgieron con la idea de mandar y recibir música entre amigos, sin embargo estas redes crecieron tanto que hoy en día están poniendo en riesgo a las disqueras y sus artistas que cada vez venden menos discos. Asi como a los creadores de software y al mundo de Cine,, entre otros


¿Pero es legal o ilegal?

Pues hasta donde yo sé, es un asunto de legislacion de cada Pais en particular no hay ninguna ley unerversal que lo prohíba. Sin embargo, la verdad es que obtener las canciones, Peliculas,etc sin pagar, es lo que en teoría sería un robo.

Por otra parte, algunos artistas promocionan este tipo de medios e incluso suben a sus sitios algunas de las canciones para descargarlas, así el público se interesa y compra el disco.

Creo que una solución efectiva sería que los artistas pusieran más material en sus discos, como videos, fotos, entrevistas, algo que únicamente el disco tenga.


En mi caso, estoy consciente que puedo perjudicar al artista del que bajo , sin embargo de igual modo he conocido miles de cantante, escritores y de cientos de canciones que hubiesen sido imposible escuhar y conocer si no fuesen por este tipo de conecciones. ¿Ustedes que opinan? ¿Usan redes P2P?

Bueno luego de este intro pues a la noticia del titulo de este numero

El tráfico en Internet cayó un 50 por ciento al ponerse en marcha nuevas leyes antipiratería, y la posibilidad de que los propietarios de derechos de autor, a través de una orden judicial, descubran quiénes son los usuarios de Internet que comparten archivos de forma ilegal.


El anuncio de nuevas leyes que sancionan duramente la descarga de ficheros a través de la tecnología P2P ha provocado una reducción significativa del tráfico de Intenet.

La reducción más “dramática” se produjo en Suecia, donde la nueva ley obligará a los ISP a facilitar la dirección IP de los usuarios habituales de estas redes a las gestoras de derechos de autor.

Según las estadísticas de Netnod, una compañía que gestiona seis de los principales sitios web de intercambio P2P en el país, al mismo tiempo que se puso en marcha esta nueva ley, el tráfico de algunos de los principales puntos de intercambio de archivos de Suecia como Teliasonera, Tele2 y Telenor/Bredbandsbolaget, cayó de forma dramática.

En este sentido, los datos de la empresa demuestran que los sitios P2P suecos experimentaron una caída de cerca del 50% en algunos de estos nodos de un día para otro, con valores de descarga que bajaron de 200 a 110 Gbps.

Cabe destacar que Suecia cuenta con una de las infraestructuras de Internet más desarrolladas del mundo y también goza del porcentaje más importante de conexiones de banda ancha de fibra óptica per cápita de todo el mundo, y que el tráfico web creció considerablemente durante los seis meses anteriores a la puesta en marcha de la ley.

sábado, abril 11, 2009

González-Sinde




La ministra de Cultura, Ángeles González-Sinde, ha logrado acumular en sólo cinco días cerca de 14.500 votos de censura de usuarios de Internet en Facebook por su actitud contra las descargas P2P en la Red.


Este grupo creado en Facebook surgió el pasado martes nada más producirse el anuncio en rueda de prensa del presidente del Gobierno, José Luis Rodríguez Zapatero, del nombre de la nueva titular de Cultura, y se hizo bajo el eslogan de "Angeles González-Sinde, pírate".

En estos cinco días, el grupo se ha convertido en uno de los de mayor seguimiento que ha tenido hasta ahora la red social y tiene abiertos 57 temas de debate.

Una de las adhesiones propone la recogida de 500.000 firmas y entregarlas al Parlamento como iniciativa popular para pedir el cese de la ministra a la que han puesto el mote Angeles González "Sindescargas".

Otro de los simpatizantes de esta iniciativa comenta que "alguien ha de decirle a Zapatero que lo de la 'paridad en el Gobierno' no tiene nada que ver con 'mujeres que digan paridas'".

Con la ley francesa en el fondo
Entre las actuaciones que los internautas proponen está enviar multitud de cartas de opinión a la web del PSOE para mostrar su rechazo hacia el nombramiento de González-Sinde.

La actividad de este foro se ha visto incrementada tras el rechazo del Parlamento francés al proyecto de ley del gobierno de Nicolas Sarkozy para defender los derechos de autor, al estilo de lo que pretende hacer en España la nueva ministra.

El proyecto de Sarkozy contemplaba la suspensión de hasta un año de la conexión a Internet a aquellos usuarios reincidentes en la descarga de contenidos audiovisuales.

La ley antipiratas que inspira a España cae de bruces en Francia


Que habra detras de todo esto, querran los gobiernos limitar a los usuarios de internet, sera que podriamos descubrir muchas cosas estrañas y sucias que traman estos y que temen a que nos demos cuentas de sus jugadas perversas para con la humanidad... pues bien a lo que dice el titulo de esta entrega..lean con atencion lo que planean los egoistasLa ley francesa para desconectar a los internautas que se intercambien películas y música a través de internet ha vuelto a embarrancar. Esta vez, en las propias aguas parlamentarias. La no aprobación de la norma representa, además, un problema para los ejecutivos de otros países europeos, como el Reino Unido y España, que barajan medidas similares para acabar con el pirateo en la red.
El Gobierno francés goza de una holgada mayoría absoluta en el Parlamento, pero el jueves pasado perdió la votación del polémico texto debido al bochornoso absentismo de sus diputados. Los escaños de la izquierda estaban durante el debate sospechosamente vacíos. Como si de una emboscada corsaria se tratara, algunos diputados socialistas se escondieron literalmente tras las cortinas para que la derecha se confiara. Y en el momento de la votación aparecieron todos de repente e hicieron naufragar el proyecto legislativo.

A Nicolas Sarkozy, la derrota no le hará dar marcha atrás. Al contrario. En un comunicado, el Elíseo ha hecho saber que la ley se volverá a presentar al Parlamento el próximo 28 de abril. La ministra de Cultura, Christine Albanel, ha amenazado con "dimitir" si no se aprueba. De momento, la oposición se ha marcado un tanto al retrasar y desacreditar una medida que debía entrar en vigor en enero de este año.
En la sesión parlamentaria del jueves, los diputados de la izquierda se escondieron como niños traviesos para hacer creer a sus colegas de la derecha que reunían votos suficientes para sacar adelante la norma. Bingo. Los conservadores mordieron el anzuelo y fueron humillados.
El fracaso ya le está saliendo muy caro al Gobierno. Además de tener que oír de la oposición frases del tipo "la ley Hadopi --que es el nombre de la autoridad que decidirá las desconexiones de internet-- está muerta políticamente", se ve confrontado de nuevo a un impopular debate sobre la legitimidad de la medida. Según un sondeo, el 60% de los internautas está en contra de la iniciativa.

DISENSIONES
El rechazo de los usuarios ha acabado haciendo mella entre algunos diputados de la mayoría, que han pedido abiertamente cambiar la drástica desconexión por una multa. Las disensiones internas pueden explicar parte del absentismo.
Ahora habrá que empezar un trámite parlamentario que ha resultado penoso. La ley topó con el rechazo del Senado --donde la mayoría es muy ajustada--, que finalmente la enmendó agravando la condena a los piratas: aunque sean desconectados de la red, deberán seguir pagando la cuota de abono.
El proyecto prevé que los internautas reincidentes reciban varias advertencias antes de ser desenchufados. Si en seis meses no escarmientan, se les cortará el acceso durante un periodo que oscila entre los dos meses y el año. La decisión será tomada por una autoridad independiente, Hadopi. El organismo podrá reducir el tiempo de desconexión --de uno a tres meses-- si el pirata asume por escrito sus faltas.


La abortada ley francesa es, precisamente, uno de los modelos que la nueva titular de Cultura, la guionista y directora Ángeles González-Sinde, tiene encima de su mesa para combatir la piratería en España. El otro sistema que la ministra está estudiando es ampliar el canon digital para grabar económicamente las líneas de alta velocidad en internet dando por hecho que todos los usuarios del ADSL se bajan de forma gratuita películas y música.

Pero España y Francia no son una excepción. El Ejecutivo británico anunció el pasado marzo su intención de sacar adelante una ley similar a la impulsada por Sarkozy. Por su parte, Suecia acaba de aprobar una norma parecida que obliga a los proveedores de internet a desvelar la identidad que hay detrás de cada conexión. Su entrada en vigor conllevó una caída del tráfico en la red del 30%, según la agencia Netnod.

Querran que desapezca el servicio publico