domingo, diciembre 30, 2007

IPHONE su muerte entre las predicciones del 2008


Desde Inglaterra, me traen varias predicciones para el nuevo año 2008, asegurando que “algunas incluso podrían convertirse en realidad”.
10. Un nuevo jefe para AMD y quizá un nuevo dueño, en un año horrible para la compañía, con desplome bursátil y pérdida de parte de su reputación.

9. Avances en conectividad móvil web 3G/HSDPA/HSUPA, aunque quizá no lo suficiente para competir con Wi-Fi.

8. La computación verde o ecológica no avanzará sustancialmente en 2008.

7. La muerte del iPod o los dispositivos exclusivos para música a favor de soluciones integradas como los smartphones.

6. Portátiles con Sideshow: soluciones que integran en la carcasa externa una pequeña pantalla con un sistema operativo independiente.

5. Cloud Computing o “Internet en las nubes” no llegará a despegar, como sistema de ejecución de aplicaciones en el navegador a nivel empresarial a pesar de los esfuerzos de Red-Hat y a pesar de la apuesta de Google con Apps.

4. La música con DRM desaparecerá y más con el reciente anuncio de Warner Music de liberar su catálogo libre del nefasto sistema de protección.

3. El uso de Internet seguirá en ascenso. Nada nuevo bajo el sol, Imparable.

2. M&A se ralentizará. Oracle e IBM ya han obtenido lo que buscaban en el software empresarial. RIM no se venderá a Microsoft. Las adquisiciones como en este año caótico no se repetirán en 2008 quizá con desaceleración económica de por medio, aunque puede haber sorpresas.

1. La virtualización no se incorporará al escritorio. Se sobreestiman sus posibilidades.

Limewire no es tan popular como decían los informes



Desde TorrentFreak rectifican los recientes informes que sugerían que el 36,4% de todos los ordenadores tenían instalado el cliente P2P LimeWire, por una interpretación errónea de los datos mostrados por Digital Music News. La actual base instalada sería menor del 18%, según afirman.

El artículo publicado por Ars Técnica del que se hicieron eco multitud de sitios de noticias como este mismo indicó por un error de Digital Music News que el 36,4% de todos los PCs tenían instalado el cliente Limewire cuando en realidad este porcentaje correspondía a la cuota instalada de Limewire en comparación con el resto de P2P instalados.

Aún así, la base correcta instalada del 17,92% sigue siendo impresionante y contrasta con los datos de los clientes de bittorrent, en los que el más usado uTorrent, apenas llega al 5% de los PCs con Windows en todo el mundo.

Los Teclados podrían ir a la basura en un futuro


Nuestros periféricos de entrada que aún hoy son una parte imprescindible de nuestros equipos podrían ser sustituidos en el futuro gracias a nuevos desarrollos de interfaces de usuarios como el que está investigando un grupo de científicos europeos utilizando sensores acústicos en mesas de madera u objetos tridimensionales.

Aprovechando la excelente propagación de las ondas de sonido a través de materiales sólidos –incluyendo objetos en 3D- los investigadores han creado un nuevo tipo de interfaz de ordenador.

El proyecto TAI-CHI que trabaja con interfaces acústicas para la interacción del hombre y la máquina, está financiado parcialmente por la Unión Europea e integra a investigadores de varios países europeos coordinados por el Dr. Yang Ming de la Universidad de Cardiff.

Mediante el uso de sensores los investigadores fueron capaces de localizar de forma exacta y de realizar el seguimiento de las vibraciones acústicas. El rastreo del sonido de un dedo garabateando palabras en un tablero puede traducirse en una pantalla de ordenador.

Según indican percibir las vibraciones de un sólido y convertirlas en impulsos eléctricos es la parte fácil. Lo complicado es ubicar exactamente la fuente de las vibraciones por la compleja estructura de los sólidos que altera la forma de dispersión de las vibraciones.

Estas nuevas maneras de interactuar con las máquinas podrían dejar en un futuro de pertenecer a la ciencia ficción. La voz y las manos de los usuarios serán las vías de comunicarnos con los ordenadores y sustituirán a teclados, ratones y mandos convencionales.

Anunciados ingenios como la Surface de Microsoft, una pantalla que funciona como un ordenador táctil, sin botones ni teclado y que el usuario operará con las manos, nos acercan a las escenas de la película “Minority report”.

El muro interactivo de Accenture Technology Labs, una gigantesca pantalla táctil donde el usuario opera de un modo similar a la navegación por hipertexto, pasando de una pantalla a otra con un solo toque es otra de las propuestas anunciadas.

La compañía estadounidense Motorola, por su parte, va un poco más allá, sustituyendo la pantalla táctil por la escritura a dedo. Para ello toma como base el reconocimiento de trazo que actualmente funciona en las agendas PDA.

Propuestas complejas de implantar a nivel mayoritario, pero que son las alternativas de futuro para sustituir a nuestros actuales periféricos de entrada de datos y control de sistemas.

Netscape, descanse en Paz



El navegador que ayudó a potenciar el uso comercial de Internet dejará de tener soporte desde el próximo uno de febrero, una muerte largamente anunciada y que por fin ha confirmado AOL.
La razón dada por la compañía es la falta de usuarios. Sobre todo, el navegador ha tenido que hacer frente a la competencia del Internet Explorer de Microsoft, que es utilizado ahora por casi el 80 por ciento de los usuarios web.
En los noventa, sin embargo, Netscape era utilizado por más del 90 por ciento de la población web de aquellos años. Actualmente, no sobrepasa el 0,6 por ciento.

Luego opinare otro motivo desde mi punto de vista.

El DVD sigue siendo el mejor formato



Uno de los editores de Gizmodo explica las razones por las cuales según su opinión no hay que apostar ni por Blu-ray Disc ni por HD DVD: las películas actuales en DVD siguen siendo la mejor opción.

A pesar de la superioridad técnica de estos formatos, Brian Lam de Gizmodo explica en 6 puntos su visión del mercado actual y de por qué deberíamos continuar apostando por el DVD-Vídeo tradicional durante un tiempo.

1. La plataforma DRM apesta: los DVD se pueden ripear fácilmente y no ocupan demasiado espacio, mientras que las películas HD no son tan fáciles de extraer y ocupan mucho más.

2. No ocupan demasiado. Lo que se venía comentando antes: la película no ocupa demasiado en el disco duro tras ripearla, y de hecho luego es fácil convertirla a un formato menos exigente y que ocupe menos, e incluso pasarla a un reproductor multimedia portátil.

3.Buena definición: incluso en una tele de 42 pulgadas, es difícil apreciar diferencias con los formatos HD a no ser que nos pongamos muy cerca de la pantalla.

4.Autoarchivados: la forma de almacenar estos ficheros es más eficiente.

5. Alquilar: la posiblidad de descargar películas de Internet es interesante, pero poder alquilar físicamente un DVD te da la opción de ripearlo. Aquí el amigo Brian Lam parece estar abogando por pasarse de la raya, ¿no crees?

Windows es más fiable que Linux



Y Unix supera a ambos, según una encuesta
LOS ANALISTAS del Yankee Group dicen que Windows es más fiable que Linux.
Su encuesta anual sobre la fiabilidad de servidores demuestra que todos los principales sistemas operativos son bastante fiables, y que han mejorado durante los últimos tres a cinco años.

De media, los servidores Windows, Linux y Unix experimentaron de tres a cinco fallos por servidor en el 2005, causando entre 10 a 19,5 horas de caída por servidor a lo largo del año.

Según Yankee, Windows 2003 Server es un sistema operativo más fiable que Linux, ya que el tiempo de caída fue mayor en los servidores con Red Hat Enterprise Linux y distribuciones de Linux procedentes de vendedores open source.

Dice que una razón por ello es la falta de documentación para Linux y para open source.

No obstante, el informe concluye que ambos sistemas operativos son menos de fiar que los sistemas operativos basados en Unix, como son HP-UX y Sun Solaris 10.

Los que buscan trabajo deben tener cuidado con Google


El ogro de Google se come a los recursos inhumanos.
LOS RESPONSABLES DE RRHH utilizan Google para complementar las instancias presentadas por los que responden a sus anuncios de empleo, rechazando candidatos si una búsqueda devuelve información sobre ellos que no encaja con la imagen corporativa.

Aunque el currículum y las referencias de un candidato demuestren que es idóneo para un trabajo, los graciosos de RRHH hacen caso a Google y rechazan candidatos por tener intereses fuera de lo común.

Fuentes cercanas a las altas directivas comentan que la técnica es de lo más habitual en EE.UU, donde las comprobaciones previas de candidatos toman formas inesperadas.

Nos preguntamos: ¿Nuestro comandante Mike Magee habría conseguido su puesto si el departamento de RRHH hubiera realizado una búsqueda en Google y hubiera descubierto que un tal Dr. Mike Magee actúa de consultor para la política sanitaria, además de jugar muy bien al póquer?

Una búsqueda por Fuad “Fudo” Abazovic revela (como es lógico) que ha escrito muchas noticias. Pero, ¿cómo es que aparece en un foro de pesca?

Más preocupante, otra fuente nos revela que también empieza a ser una práctica habitual en EEUU que la gente realice una comprobación previa de sus posibles ligues de la misma forma, preguntando a D. Google antes de aceptar una cita.

jueves, diciembre 27, 2007

PODCAST o la muerte de la radio



"Llega a ti donde, quiera que estes la .." así suena un jingle moderno y pegajoso de una emisora favorita Y prestigiosa de mi país (R.D). Esta campaña no tiene otro objetivo que dar confianza a los anunciantes; y por que no a los oyentes en medio de tanta promesa tecnologicas.... Recuerden que desde principio de los Noventas, se decía que Internet irrumpiria para cambiar de tajo con nuestro habitos de comunicacion y consumo; y se aseguraba que la radio y la television empezarían a ver su final a causa de la convergencia digital. Pues bueno para suerte de muchos y me incluyo la realidad ha sido otra (Aun).

La pregunta obligada o mas bien curiosa es, si el PODCASTING es la muerte de la transmisión radial tal y como la conocemos? "Depende del tipo de radio", asegura Adam Cury, señalado como el "padre pod" por su papel en el desarrollo del podcasting; además agrega que habrá espacio para la radio tradicional, en especial, en el ámbito de noticias.

Pero ojo según un estudio realizado en la Comunidad Europea, casi la mitad de los ciudadanos (48%) considera que Internet es el canal idóneo para informarse sobre el lanzamiento de nuevos productos, mientras que el 19% prefiere hacerlo través el periódico y 18% por medio de revistas. Tan solo 10% prefiere recibir información sobre nuevas promociones a través de television (8%) o radio (2%). Si la tendencia es clara: todo llegara a Internet tarde o temprano.

Y este es el valor y (el peligro) mas relevante de los Podcast: los micrófonos están siendo tomados por quienes hacen Internet. Quienes están creando la radio en linea son los mismo que hicieron estallar la Red y la convirtieron en el medio aplastante que es. Tal vez nos falte vivir una etapa de filtro, en la que los simples podcast se diferencien de los extraordinarios pero, sea como sea, la Radio en Internet, es inminente. Y atención: no habrá vuelta atrás.

El Podcasting es un fenómeno que, según las tendencias, no pretende frenarse ante nada: Feedburner, el servicio de suscripciones RSS, asegura que existen 100,000 podcast en el mundo con un total de cinco millones de suscriptores. Solo en EUA, existen 10 millones de oyentes y se estima que para el 2010 seran 50 millones.

En termino generales, un podcast es un programa realizado al estilo de uno radial que puede ser descargado o bajado de Internet y transferirlo a un reproductor de música en formato MP3 u otro parecido. Lo mejor del podcasting, es que casi cualquiera, con los requerimientos técnicos necesarios, puede producirlo y publicarlo para hacer que sus ideas se escuchen.

Aunque hoy todos asumimos que la palabra Podcast es universal, hubo un momento en que no fue así. Incluso, surgió la propuesta de cambiarla. Aunque algunos aseguran que podcast surgió como acrónimo de Portable On Demand Broadcast, es decir, emisión portátil a solicitud, otros advierten que tuvo su origen al contraerse de las palabras ipod y broadcast, y que tal propuesta surgió del mismo Adam Curry, padre del PODCAST. La hoy famosa palabra se extendió con contundencia a mediado del 2005, reemplazando a lo que brevemente se llamo "AUDIOBLOG o BLOG HABLADO". Las olas se levantaron cuando Apple se abocó a registrar diversas variantes de la palabra podcast como marca comercial, y a requerir a empresas como podcast ready renunciar al uso de sus propias marcas comerciales, pues, según Apple, vulneran sus derechos de copyright.

sábado, diciembre 22, 2007

Qué es un buscador


Optimización para buscadores amplía alcance de sitios en la red
Además de los esfuerzos publicitarios requeridos para dar a conocer a un público específico la existencia de un sitio de Internet, es necesario que los desarrolladores comprendan la mecánica con la que operan las herramientas de búsqueda
Muchas páginas de internet son actualizadas frecuentemente, lo que obliga a decenas de motores de búsqueda a visitarlos periódicamente.

Debido al tamaño de la red por la cantidad de sitios que existen y que se crean todos los días en el mundo, los motores de búsqueda han cobrado cada vez mayor importancia como herramienta para que los usuarios lleguen a los servicios e información adecuada a sus intereses.
Además de los esfuerzos publicitarios requeridos para dar a conocer a un público específico la existencia de un sitio de Internet, es necesario que los desarrolladores comprendan la mecánica con la que operan las herramientas de búsqueda para dirigir tráfico a un sitio específico sin la necesidad de realizar grandes inversiones en publicidad.

Los motores de búsqueda son sistemas de recuperación de información diseñados para minimizar el tiempo requerido para encontrar información, así como la cantidad de sitios que deben ser consultados para ubicar los contenidos deseados entre los miles de sistemas que conforman la red informática mundial.

Qué es un buscador

Un buscador de Internet o motor de búsqueda es un sistema de recuperación de información en los sistemas conectados a la red mundial de Internet.

Los motores de búsqueda permiten solicitar contenidos que cumplen con criterios específicos, que típicamente están contenidos en una palabra o frase dadas, y regresa al usuario una lista de contenidos que empatan con esos criterios.

Esta lista normalmente está ordenada con respecto a alguna medición de la relevancia de los resultados. Los motores de búsqueda usan regularmente índices actualizados para operar de manera rápida y eficiente.

Los motores de búsqueda se diferencian de los Directorios Web, ya que éstos últimos son mantenidos por editores, y los primeros operan con algoritmos o son una combinación de algoritmos y decisiones humanas.

Buscadores líderes

Google

Google comenzó a tener gran prominencia a partir de 2001. Su éxito se basa en parte en el concepto de popularidad de enlaces y su PageRank.

El número de sitios y páginas que se ligan con una página web específica es tomado en cuenta mediante la clasificación PageRank, bajo la premisa de que los sitios buenos y deseables tienen más vínculos desde otros sitios.

El PageRank de páginas vinculadas y el número de vínculos en tales páginas contribuyen al PageRank de la página en cuestión.

Google y el resto de los motores de búsqueda no sólo usan el PageRank, sino más de 150 criterios para determinar la relevancia de un sitio.

El algoritmo “recuerda” los sitios donde ha estado e indexa el número de vínculos cruzados, relacionando a éstos en grupos.

Yahoo! Search

Yahoo tiene su propio motor de búsqueda basado en la combinación de tecnologías, resultado de su adquisición de otros buscadores como Inktomi, Overture, AlltheWeb y AltaVista. Este buscador privilegia los resultados de su motor de búsqueda sobre los resultados arrojados por su Directorio Web.

Microsoft

Es el más joven de los principales motores de búsqueda. Anteriormente basaba sus resultados de búsqueda en Inktomi (ahora propiedad de Yahoo), pero a partir de 2006 migró sus búsquedas a una nueva plataforma, WindowsLiveSearch, con lo que retiró el nombre MSN Search.

Cómo trabajan los motores de búsqueda

Los motores de búsqueda operan con el siguiente orden de acciones:

1. Web Crawling (arañas)

2. Creación de índices

3. Resultados de la búsqueda



Los motores de búsqueda trabajan a través del almacenamiento de información sobre un gran número de páginas web, que son obtenidas de la propia red.

Estas páginas son recuperadas por un Web Crawler (algunas veces llamados arañas), que son navegadores automatizados que siguen cada vínculo que encuentran en un sitio dado.

Los contenidos de cada página son analizados para determinar cómo debe ser indexada (por ejemplo, se obtienen palabras de los títulos, encabezados o espacios especiales llamados meta tags). La información sobre las páginas son almacenadas en una base de datos para su uso en búsquedas posteriores.

Algunos motores de búsqueda como Google almacenan todo o parte de una página fuente (a lo que le llama Caché), así como información sobre las páginas. En tanto, otros buscadores almacenan cada palabra de todas las páginas que encuentran.

Cuando un usuario realiza una búsqueda, normalmente tecleando palabras clave, el motor busca en su índice y provee una lista de las páginas que mejor empatan con los criterios, normalmente con un sumario corto que contiene el título del documento y algunas veces parte de su texto.

La mayor parte de los motores de búsqueda usan los términos booleanos AND, OR y NOT para hacer rastreos más específicos. Una característica avanzada de los buscadores es la proximidad, que permite a los usuarios definir la distancia entre las palabras clave.

Las tecnologías de búsqueda actuales podrían cambiar en el futuro de acuerdo con el desarrollo de Internet.

Muchos motores de búsqueda son empresas comerciales financiadas por ingresos por publicidad, como resultado algunas emplean la práctica controversial de permitir a sus anunciantes pagar dinero para aparecer en los primeros resultados de búsqueda.

La mayoría de los motores de búsqueda son operados por compañías privadas que usan algoritmos propios y bases de datos cerradas.

El proceso de creación de índices se refiere a la manera en que la información obtenida por las arañas es almacenada para facilitar su recuperación de manera rápida y precisa.

El diseño de índices incorpora conceptos interdisciplinarios de lingüística, psicología cognitiva, matemáticas, informática, física y computación.

Los buscadores populares se enfocan en el indexado del texto completo de documentos redactados en lenguaje humano en internet, aunque existen otros tipos de archivos que pueden ser buscados como son video, audio y gráficos.

Meta Elementos
Los Meta Elementos son componentes HTML usados para proveer datos estructurados sobre una página web. Esos elementos son colocados como etiquetas (tags) en la sección "head" del documento HTML.

Las páginas web pueden contar con este tipo de información oculta que indica a los buscadores quién es el autor, palabras clave, descripción del documento y lenguaje.

Para las páginas HTML, la meta tag contiene palabras clave que también son incluidas en los índices creados por los buscadores.

Los meta elementos proveen información sobre una página dada y ayudan a los buscadores a categorizarlas correctamente. Estos elementos son insertados en el documento HTML, pero no son directamente visibles por el usuario cuando visita el sitio.

Estos elementos son el foco de un área de la mercadotecnia conocida como Optimización para Motores de Búsqueda (Search Engine Optimization, SEO), a través del cual se usan diversos métodos para dotar al sitio de un usuario de una clasificación más alta en los buscadores.

Los meta elementos tienen menor incidencia en los resultados de búsqueda hoy en día que a mediados de la década pasada, debido a que las arañas o robots de los buscadores se han vuelto más sofisticados y otorgan mayor importancia a las páginas externas que se vinculan con el sitio, la cantidad y calidad del contenido, la precisión técnica del código fuente, la cantidad de vínculos funcionales, el volumen y consistencia de búsquedas o tráfico, el tiempo promedio de visita, número de páginas vistas, nuevas sesiones, tasas click-through, geografía, lenguaje, y otras características intrínsecas.

Keywords
Una palabra clave en las búsquedas de internet es usada para encontrar páginas coincidentes en la red. Se popularizaron durante los primeros años del desarrollo de los buscadores debido a que no era posible realizar preguntas en “lenguaje natural” para encontrar los sitios deseados.

Las búsquedas eran más eficientes al proporcionar sólo algunas palabras clave. Estas palabras capturaban la esencia del tema en cuestión y aparecían destacadas en la lista de resultados del motor de búsqueda.

Las palabras clave son utilizadas aún. Muchos buscadores modernos emplean métodos para determinar cuáles palabras en una instrucción de búsqueda son importantes y, por tanto, deben ser tratadas como keywords.

Las palabras más comunes como los artículos (un, una, el, la, los) y las conjunciones (y, o, pero) no son tratadas como palabras clave y son ignoradas por los buscadores, con el propósito de reducir los resultados de búsqueda.

Una lista de palabras hispanas ignoradas por buscadores puede ser consultada en el siguiente URL.

Prácticas prohibidas: Keyword stuffing
Ésta es considerada una práctica sin ética de las técnicas de Optimización para Motores de Búsqueda (SEO). Este procedimiento consiste en la utilización repetitiva o engañosa de palabras clave en los meta elementos o en el contenido.

Estos procedimientos pueden ser usados para obtener un mayor ranking y visibilidad para frases particulares en los motores de búsqueda. Una palabra que es repetida muchas veces puede ser detectada por los buscadores; en particular, se sabe que Google expulsa de sus índices a los sitios que emplean esta técnica y reduce significativamente el ranking de los sitios que recurren a ella.

Igualmente es considerado Keyword Stuffing la inserción como metaelementos de palabras clave que son buscadas con frecuencia (como la palabra sexo), aún cuando esa palabra tenga poca conexión con el contenido de una página, con el fin de atraer tráfico de manera engañosa.

La elección de palabras como Metatags debe ser determinada con el fin de beneficiar a los usuarios al hacer más eficientes las búsquedas de páginas relevantes, y jamás como un medio de engaño para aumentar el tráfico web.

Retos para los motores de búsqueda
Internet está creciendo más rápido de lo que cualquier tecnología actual de motores de búsqueda puede indexar.

Muchas páginas de internet son actualizadas frecuentemente, lo que obliga a los motores de búsqueda a visitarlos periódicamente.

Las búsquedas que se realizan actualmente están limitadas a la búsqueda de palabras clave, lo que puede resultar en muchos resultados falsos.

Los sitios generados de manera dinámica pueden ser lentos o difíciles de indexar por los buscadores. Muchos sitios generados de manera dinámica no pueden ser indexados por motores de búsqueda. Este fenómeno es conocido como la Red Invisible.

Algunos motores de búsqueda no clasifican sus resultados con respecto a la relevancia, sino por la cantidad de dinero invertido en publicidad.

Google, al rescate de la liquidez publicitaria en Internet

En los años 90 era muy difícil obtener alguna clase de compensación por el desarrollo de contenidos y su publicación en Internet. Quizá esa sea una de las causas que provocaron la alta presencia de spam y pornografía.

Uno de los problemas de los banners es su poca capacidad de llegar a públicos altamente segmentados, lo que explica que las tasas clickthrough sean tan bajas. Esta podría ser una de las razones por las que las tasas de publicidad en internet que habían sido razonablemente altas en los 90 cayeran a niveles que ni siquiera sitios muy populares pudieran obtener rentabilidad de sus espacios publicitarios en esta década.

Sin embargo, la publicidad segmentada lanzada por los anuncios de texto de Google cambiaron el panorama.

Los anuncios de Google no son imágenes, sino textos que resultan menos molestos para los lectores.

Con Adsense, un programa de distribución de anuncios, los propietarios de cualquier sitio tienen la posibilidad de asociarse con el gigante de las búsquedas en internet para permitir el despliegue de textos, imágenes y más recientemente video para fines publicitarios.

Estos anuncios son administrados por Google y generalmente generan ingresos ya sea bajo los modelos de Costo Por Clic o bien por el de Costo por Millar de impresiones. Además Google comenzó a utilizar un sistema de Costo Por Acción.

Google utiliza su tecnología de búsqueda para distribuir anuncios basados en el contenido de un sitio, la localización geográfica del usuario y otros factores.

Los anunciantes interesados en promoverse mediante esta tecnología de segmentación de Google pueden hacerlo a través del sistema AdWords.

AdSense se ha convertido en un método popular para la publicación de publicidad en sitios web debido a que los mensajes de texto son menos intrusivos que los banners, y el contenido de los anuncios es la mayor parte de las veces relevante para los intereses del lector.

El sistema utiliza un código JavaScript para incorporar los anuncios en un sitio web participante. Cuando el sitio en cuestión no ha sido explorado por el Mediabot, el sistema despliega anuncios de causas benéficas, conocidas como Anuncios de Servicio Público.

El Mediabot es un robot o araña diferente al Googlebot que mantiene los índices de búsqueda de Google.

Hay tres maneras de monetizar un sitio mediante el sistema Adsense de Google:

1. Técnicas de generación de tráfico incluyendo la publicidad en línea. 2. La publicación de contenido de valor que atraiga los anuncios de AdSense, los cuales generan ingreso cuando son activados 3. Uso de frases que invitan a hacer clic en los anuncios, aunque Google prohíbe expresamente a los editores asociados a utilizar frases como “De clic en los anuncios”.

El origen de los recursos de AdSense es el programa AdWords, que en cambio tiene un complejo modelo de precios basado en una subasta Vickrey, en la cual el anunciante debe presentar una oferta sellada que no puede ser observada por los competidores. El ganador de la subasta es quien presenta la mayor oferta, pero el precio a pagar es el correspondiente a la segunda oferta más alta.

Historia

La historia detrás de AdSense se originó de WordNet y Simpli, una empresa fundada por George A. Millar, y varios profesores y egresados de la Universidad de Brown.

La tecnología se basa en búsquedas semánticas que fueron aplicadas por primera vez por la empresa Oingo, formada en Santa Monica, California, en 1998. La empresa cambió su nombre a Applied Semantics, la cual fue adquirida por Google por 102 millones de dólares en abril del 2003, para reemplazar un sistema similar desarrollado de manera interna.

En mayo de 2005, Google presentó su servcio AdSense para feeds, una versión de su sistema publicitario que corre con sistemas de sindicación RSS y Atom que tienen más de 100 suscriptores activos.

Según el Blog oficial de Google “los anunciantes colocan sus anuncios en los artículos sindicados más apropiados, los editores reciben retribuciones por su contenido original, y los lectores encuentran publicidad relevante”.

El sistema AdSense para búsquedas permite a los editores colocar cajas de búsqueda de Google en sus páginas.

Cuando un usuario busca en la red o en el sitio mediante el buscador instalado, Google comparte parte de sus ingresos obtenidos con esa búsqueda con el propietario del sitio que hospeda la publicidad en caso de que los anuncios desplegados en los resultados de búsqueda tengan un clic.

Cada vez que un usuario visita una página con etiquetas de AdSense, un código JavaScrit escribe una etiqueta iframe, cuyos atributos incluyen el URL de la página. Una etiqueta iframe (inline frame) es un elemento HTML que hace posible integrar otro documento HTML dentro del documento principal.

Los servidores de Google usan un caché de la página para el URL o las palabras de la misma URL para determinar una serie de palabras clave de alto valor. Si las palabras clave han sido registradas, los servidores envían anuncios relacionados con tales palabras con base en el sistema de subastas de AdWords.

Pago

Las condiciones de pago para los clients de AdSense tiene algunas desventajas para los editores, debido a que Google retiene los pagos hasta que la cuenta del cliente suma 100 dólares, pero muchos sitios necesitan mucho tiempo, en algunos casos años, para obtener este nivel de ingresos mediante AdSense.

Estos pagos pendientes son registrados en la contabilidad de Google como “reparto de utilidades retenido”.

Al cierre del año fiscal del 2006, la suma de estas pequeñas deudas ascendió a más de 370 millones de dólares, dinero que Google puede invertir, pero que en los hechos pertenece a sus clientes.

jueves, diciembre 20, 2007

Cómo medir la audiencia de tu web con Google Analytics



El control de audiencias siempre ha sido una herramienta difusa. Los medios tradicionales disponían de mecanismos para conocer su repercusión, pero jamás habrían podido soñar con unas soluciones que ofrecen datos más cuantiosos y, sobre todo, específicos. La propia arquitectura de la Web y de los navegadores hace que la actividad de los internautas siempre se registre de forma más o menos concreta y que, de este modo, habitualmente queden huellas «útiles» para los administradores del sitio web de nuestro paso por la Red.

Obviamente, esas huellas pueden borrarse o al menos «disimularse», pero la mayoría de los usuarios no consideran importante el hecho de que una página sepa que hemos accedido a ella con Internet Explorer o con Firefox, en español o en inglés, y a una resolución de 1.280 x 1.024 o de 800 x 600. Sin embargo, todos esos datos son críticos para los desarrolladores de contenidos.

El uso de estos programas se basa normalmente en la inclusión de unas cuantas líneas de código (por lo general, JavaScript) en alguno de los ficheros que constituyen la plantilla interna, normalmente estructurada en diversas partes, como la página principal, cabecera y pie de página o barras laterales.

Ese código es el encargado de ir exportando los registros de la actividad de los usuarios al servidor de estadísticas, que a su vez recoge esa información y la presenta de manera que los administradores web puedan comprenderla y sacar partido de ella. Los programas de gestión de estadísticas web disponen de un sinfín de opciones de clasificación de la información, y además ofrecen soluciones de generación de informes y gráficas que ayudan a comprender de un vistazo qué está ocurriendo en nuestro sitio web, qué páginas tienen más o menos éxito, y cómo optimizar su comportamiento.
Todos esos datos tienen un único propósito: sacar conclusiones para poder hacer que un sitio sea más interesante para los lectores para los que está pensado. Sus preferencias acerca de los contenidos y secciones preferidas le dan una idea exacta de lo que busca ese internauta en nuestra web, y permiten adaptarla a esas necesidades. El beneficio del administrador es claro: al mejorar el sitio, es capaz de atraer a más lectores el marketing viral es el protagonista y eso suele provocar un aumento de la publicidad, la fuente de ingresos más importante para este tipo de medios.
Analytics, de todo para todos
Existen una gran cantidad de herramientas en el mercado capaces de aportar mucho valor en estas tareas (tanto comerciales como gratuitas y de libre distribución), pero está claro que en este campo hay una referencia clara para la mayoría de usuarios. Un excelente primer punto de partida lo representa la extensa lista de herramientas de análisis que publicó Mashable! recientemente y que podréis encontrar en http://mashable.com/2007/ 06/25/analytics-toolbox.

En todo caso, la referencia en este campo es Google Analytics (www.google.com/analytics/es-ES), la herramienta del gigante de Internet que ofreció una primera versión potente pero limitada en su generación de informes. La remodelación de la interfaz de usuario, que tuvo lugar hace pocos meses, ha terminado de pulir esos defectos y la ha convertido en una fuente prácticamente inagotable de recursos, comparable a cualquier sistema comercial en la mayoría de sus prestaciones.

Como comprobaremos, el manejo básico de Google Analytics no es complicado, pero las posibilidades son tantas que es necesario lidiar con la aplicación en profundidad para poder apreciar los beneficios que nos puede aportar.

Bush espiará a sus ciudadanos vía satélite



Los satélites espía estadounidenses serán utilizados en vigilar a sus compatriotas según avanza The Wall Street Journal. El proyecto de vigilancia doméstica paralizada por las críticas de las asociaciones de derechos civiles, finalmente verá la luz la semana próxima.

Michael Chertoff, secretario de Seguridad interior y promotor del proyecto también planea llevar a cabo un programa de 15.000 millones de dólares para “defensa cibernética” que incluirá “protección gubernamental” en las redes de computadoras.

El espionaje, que las asociaciones de derechos civiles dicen que atenta contra derechos constitucionales no es nuevo; simplemente ahora se hará legal, mediante las nuevas normas. Ya en el pasado la NSA (Agencia de Seguridad Nacional) ha estado envuelta en escándalos de escuchas telefónicas sin orden judicial.

El programa de espionaje por satélite en el interior de Estados Unidos será gestionado por un nuevo departamento denominado NAO (National Applications Office) al que tendrán acceso las autoridades federales y locales. En teoría el sistema no podrá interceptar comunicaciones “verbales”, pero espérate de todo con la administración Bush.

Entre la Web y el cielo


El carro de desarrollo de Google sigue su marcha. Si en el número anterior os mostrábamos las posibilidades de iGoogle, ya tenemos que hablar de las nuevas mejoras que han incorporado. Asimismo, no podemos dejar de apuntar que Google Earth crece y ya nos muestra el universo.

El acceso inmediato a los contenidos en Internet es una necesidad de nuestros días. Es por lo que Google ha desarrollado una utilidad para su buscador que permite no sólo un acceso rápido, sino también una gran variedad temática, acorde con los gustos y requerimientos de cada usuario. iGoogle es la nueva apuesta de la compañía y con ella pretende diferenciarse de otros buscadores, ofreciendo una mayor agilidad a sus propios usuarios, ya que, para poder manejar iGoogle, es preciso tener una cuenta con Gmail, su servicio de correo web.

Como os explicábamos en el número anterior, a través de la página www.google.es/ig, podremos configurar nuestro portal de inicio con los diferentes gadgets, que en principio eran utilidades básicas como la previsión meteorológica, el calendario..., pero que ahora ascienden a más de 10.000. Con estas miniaplicaciones será posible personalizar tanto la página de inicio, como el dominio web del usuario o Google Desktop. Además, iGoogle cuenta con «divertidos inicios temáticos», como nos ha explicado Sep Kamvar, jefe ingeniero de personalización de software de Google, que cambiarán a lo largo del día conforme pasen las horas.

Para esta firma, es el principio de los canales personalizados a los que otros usuarios pueden acceder. Las utilidades con las que cuente cada uno se pueden compartir mediante invitaciones dentro de la lista de contactos que el propio programa incluye dentro de sus gadgets. Otra forma de acceder a ellos o de encontrar una persona con nuestras mismas inquietudes es consultando el historial de usuario. A modo de ficha, el historial permite ver nuestros contenidos. Por supuesto, éste es configurable: bien se pueden seleccionar las aplicaciones que queremos que el resto de usuarios vean o bien denegar el acceso a los mismos.

Google pretende ahorrar trabajo a sus clientes y «desechar lo que no quieren buscar», decía Sep Kamvar. También «es útil para la gente que no se desenvuelve bien en Internet y no sabe localizar algo» a lo que añadía que «cree que ayudará a crecer a la compañía».

Nueva búsqueda: universo
Google Sky, la nueva aplicación de Google, vendrá dentro de la nueva actualización de Google Earth (versión 4.2), el programa por el que podemos observar vía satélite cualquier punto de nuestro planeta. Está traducido a 13 idiomas y «fomentará e iniciará un nuevo conocimiento del universo llevándolo a la computadora de cada persona», asegura Carol Christian, del Instituto Científico del Telescopio Espacial y codirector del equipo que desarrolló Sky.

Desde el 27 de agosto, el nuevo servicio permitirá a los usuarios ver y acercarse a 100 millones de estrellas y galaxias fotografiadas por el satélite Hubble. Según Google, el servicio será un recurso para aprender sobre el universo, ya que permitirá a los usuarios ver el cielo del mismo modo en que se

El mundo en el año 2030 segun Ray Hammond, gurú futurista y escritor



La comunicación entre humanos y dispositivos dotados de Inteligencia Artificial permitirá crear seres artificiales que reconozcan a sus usuarios y que tengan sentimientos. Igualmente, disfrutaremos de ordenadores con procesadores medio millón de veces más potentes gracias al desarrollo de la nanotecnología.

En poco más de 20 años la Inteligencia Artificial será una realidad extendida, existirán robots fabricados con plástico y estaremos continuamente conectados a una «super-web», gracias a desarrollos tecnológicos que cambiarán radicalmente muchos aspectos de la vida humana.

Estas pocas highlights, relativas a las nuevas tecnologías, se desprenden de mi informe llamado «El Mundo en el Año 2030», donde durante el último año he contado con el arbitraje de dos científicos y del director de campañas de la ONG Amigos de la Tierra, Mike Childs.

El informe, presentado en un importante evento en Bruselas a mediados de noviembre, ha sido encargado por PlasticsEurope (la asociación de de fabricantes de plásticos), con el objetivo de permitir al sector dar los pasos correctos para cumplir con los retos que se presentarán en el futuro (especialmente los que inciden en el cambio climático).

Somos conscientes que nos encontramos en un momento crítico en el desarrollo de nuestra sociedad y del sector, debiendo hacer frente a retos importantes y globalizados como son el cambio climático y la mayor eficiencia energética.

Por ejemplo, si la mitad de los edificios estuvieran aislados utilizando los plásticos elaborados con los estándares más altos, la UE podría reducir en un 35% las emisiones de CO2 en los edificios, lo que equivaldría a 340 millones de toneladas. Esto sobrepasaría los objetivos de Kyoto del UE27 para el sector y sería casi la mitad del objetivo más exigente de la UE para el año 2020.

Nadie puede predecir el futuro de forma precisa. Pero este informe identifica las tendencias clave que, probablemente, perfilen las próximas décadas, proyectándolas al año 2030. Sí tenemos una certeza indiscutible: la enorme velocidad en los cambios, que hemos observado desde los años 80 continuará acelerándose tanto, que en algunos aspectos nuestra vida en 2030 será muy diferente de la actual.


La bola de cristal
En cualquier caso, éstas son las nueve principales predicciones. Y como toda predicción sobre el futuro a medio plazo, hay que tomarla en su justa medida; si luego no llegan a ocurrir, no me vengan con el cuento de que no avisé. Reclamen al fabricante de mi bola de cristal.



1.- La capacidad de los procesadores informáticos se incrementará exponencialmente, de modo que en 2030 disfrutaremos de ordenadores, al menos, medio millón de veces más potentes que los actuales. Estos avances van a poderse hacer realidad gracias a los avances nanotecnología que utilizan polímeros en los chips.

2.- En el año 2030, una Internet lo suficientemente sólida como para dar cabida a un millardo de dispositivos va a permitir el desarrollo de una sociedad «siempre conectada». Por otra parte, las tecnologías para identificación mediante radiofrecuencias (RFID) y los sensores inalámbricos van a permitir un seguimiento y una vigilancia permanentes de personas, animales, envíos, etc.

3.- El etiquetado inalámbrico una tecnología facilitada por dispositivos y componentes elaborados con plásticos- va a permitir a los electrodomésticos maximizar el flujo de energía de forma permanente, contribuyendo a reducir las emisiones de gases de efecto invernadero.

4.- La «Superinternet» del futuro permitirá disfrutar de experiencias multisensoriales, incluyendo las olfativas y la simulación de gustos.

5.- Para el año 2030, se habrán realizado grandes avances en Inteligencia Artificial, una vez que se logre que los equipos que utilizan software superen el llamado «Turing Test», y puedan, por ejemplo, mantener una conversación compleja con un ser humano.

6.- Las «personalidades de software» formarán parte de nuestras vidas cotidianas, en forma de ayudantes personales virtuales y acompañantes que residen en los dispositivos móviles. Estos seres virtuales nos conocerán, serán capaces de mostrar sentimientos y se comunicarán con nosotros a través de auriculares e instrumentos visuales especiales que emiten proyecciones en la retina.

7.- En el año 2030, 1.000 millones de personas van a tener, como mínimo, 65 años de edad. Científicos en Japón ya están desarrollando robots elaborados con materiales plásticos avanzados que cuidarán de los ancianos y realizarán algunos trabajos peligrosos o penosos en el mundo industrial.

8.- La medicina va a experimentar una auténtica revolución. El mapa de ADN personal, los grandes avances en terapia genética y las investigaciones sobre células madre van a hacer que la medicina impida la aparición de enfermedades y amplíe la vida. Con la importancia que va a tener el empleo de plásticos en Sanidad, las personas podrían alcanzar más de 130 años de edad en el 2030.

9.- Es probable que padezcamos fenómenos meteorológicos extremos. La solución a la crisis energética será el empleo de fuentes de energía limpia y natural (como el Sol, el viento, los océanos, etc.).

miércoles, diciembre 19, 2007

Un PC para cada superficie





Aunque ahora nos parezca algo común, la idea de manipular imágenes en una pantalla manejando un ratón fue revolucionaria cuando Douglas Engelbart la introdujo en 1964. A pesar de su buen funcionamiento, el ratón es aún un sucedáneo de una interfaz humana más natural, la yema del dedo. En los próximos años, una nueva categoría de PC cederá por completo el control a tus dedos.

¿En qué consiste?

La informática de superficie supone una vuelta a las raíces, al permitir que nos reunamos con algunos amigos en torno a una mesa para interactuar como en los viejos tiempos. Los ordenadores de superficie permiten a múltiples usuarios trabajar con datos proyectados en la superficie de una mesa tocando los objetos en pantalla con sus yemas de dedos. Una gran cantidad de compañías trabajan en este tipo de tecnologías, aunque hay dos empresas que encabezan los esfuerzos: Microsoft , con sus PC Surface, y Mitsubishi Electronics Research Laboratories (MERL), con DiamondTouch.

Los modelos Surface usan proyección trasera para crear una imagen en la superficie de una mesa desde su interior, mientras que cinco cámaras infrarrojas en la tabla registran los movimientos de los dedos en la pantalla.

Por su parte, DiamondTouch proyecta la imagen sobre la tabla y utiliza acoplamiento capacitivo (cómo el utilizado en los páneles táctiles de los portátiles) para seguir las yemas de tus dedos, aunque con este diseño se crean sombras cuando se toca la superficie.
¿Cuándo estará disponible?
DiamondTouch de MERL es todavía un proyecto de investigación, pero los PC Surface aparecerán a lo largo del año en hoteles, casinos o tiendas de móviles. La primera generación Surface se exhibirá únicamente en sitios públicos, pero Microsoft espera ofrecer una versión empresarial para salas de conferencia en 2010.

Los usuarios domésticos tendrán que esperar de tres a cinco años. Aunque, según Microsoft, es de esperar que no tardando mucho tiempo puedas tener tu Surface integrado en encimeras, espejos o cualquier superficie plana de tu hogar.

Convierten la luz en sonido


Investigadores en la Universidad de Duke, en EEUU, están desarrollando un sistema para mejorar la velocidad de transmisión en las líneas de fibra óptica. Para ello utilizan un método singular, convirtiendo la luz en sonido y luego volviéndola a convertir en luz.

El problema de estas transmisiones con fibra óptica reside en que su procesado es complejo, lo que ha llevado a este grupo de investigadores a convertir la información de luz en información eléctrica de sonido, que luego vuelve a ser recuperada.

Este proceso consiste en combinar pulsos de luz que al colisionar e interferir entre ellos generan un patrón que se establece en la fibra óptica con áreas de intensidad baja o alta. Este patrón afecta a las propiedades físicas de la fibra y se genera una onda acústica.

Estas ondas acústicas viajan mucho más lentas que la luz, obviamente, pero esas ondas se reconvierten a luz de nuevo con un tercer pulso haciendo que esos pulsos actúen como ‘repetidores’ para mejorar la eficiencia de la fibra óptica.

Flickr y Picnik juntos


El portal para compartir fotografías e imágenes, utilizado extensamente por blogueros como depósito de fotos ahora cuenta con las herramientas de Picnik, el editor online de fotografías.

Edición de fotos, recorte de tamaño, eliminación de “ojos rojos” ahora están disponibles de forma rápida y sencilla en el mismo navegador web.

“Hace tiempo reconocimos un gran potencial para trabajar juntos. En vez de desviar nuestra especialidad en un área en la que no tenemos experiencia, una asociación con Picnik es mucho más razonable”.

La colaboración de Picnik/Flickr funciona como otros servicios de terceras persona que han incorporado herramientas adicionales a la API de Flickr. Es como si estuvieras “instalando” Picnik en tu cuenta de Flickr, pero sin descargar nada

YouTube tiene la historia del PC


El popular sitio web ha servido como medio perfecto para crear un canal de vídeos de la historia de la informática, una fantástica iniciativa del Computer History Museum con el que podemos ver interesantes minidocumentales sobre la historia del PC.

Este curioso museo es uno de los más importantes en recoger todo tipo de datos y modelos de PCs y componentes antiguos, y ahora podemos apreciar su trabajo a través de los documentales que están apareciendo en el canal de YouTube expresamente diseñado para este propósito.

Entre los documentales podemos ver varias joyas como la dedicada al reciente 25 aniversario del Commodore 64, la historia de Palm, o las visiones de líderes de la industria y gurús como Steve Wozniak (el creador del primer Mac junto a Steve Jobs).

Por el momento cuentan con 24 vídeos, pero el canal lleva apenas un par de meses en marcha, así que estad atentos porque seguro que muy pronto tendrán muchos, muchos más.
http://www.youtube.com/computerhistory
http://www.computerhistory.org/
http://www.theinquirer.es/2007/12/11/25_anos_del_commodore_64.html

Latinoamérica considerada centro de la piratería informática



Colombia, Paraguay y Brasil se convirtieron en los ejes de la piratería informática en Latinoamérica. La piratería se vincula con organizaciones dedicadas a actividades criminales como la falsificación de dinero.

El gigante informático Microsoft anunció el miércoles la desarticulación de varias decenas de redes de piratería informática en un total de 12 países de la región.

Según Microsoft, durante la operación de ayer, que culminó seis meses de investigaciones, se incautaron 96.000 copias de productos como Windows Vista, Windows XP, Windows Server, Office 2007 y Office 2003 que tiene un valor de 10,8 millones de dólares.

Las redadas se efectuaron en Argentina, Brasil, Chile, Colombia, República Dominicana, El Salvador, Guatemala, México, Panamá, Paraguay, Perú y Uruguay.

La piratería informática es un "gran negocio" en países latinoamericanos, particularmente en Colombia, Paraguay y Brasil, y en algunos casos los piratas están vinculados con organizaciones dedicadas a actividades criminales como la falsificación de dinero.

Juan Hardoy, director de Antipiratería de Microsoft en Latinoamérica, señaló a Efe que en Paraguay, Colombia y Brasil se concentran las actividades más graves de falsificación del software de la compañía.

En concreto en Colombia, los investigadores de Microsoft han detectado "un alto nivel de calidad" de las falsificaciones de productos de la compañía, así como los mayores depósitos de productos pirateados de la región.

Hardoy explicó la posición prominente de Colombia en el mundo de la piratería en Latinoamérica por la sofisticación de las actividades criminales en el país.

"En parte se debe a que tienen especialistas en falsificación de dólares y es que existe una asociación entre piratería y otros delitos organizados" dijo Hardoy.

Otro punto caliente de la piratería informática en los países latinoamericanos se da en Paraguay, país en el que el nivel de la piratería es del 82 por ciento.

La situación geográfica de Paraguay -país fronterizo con el mayor mercado latinoamericano de informática, Brasil- ha favorecido el desarrollo de la piratería.

Como dato a destacar, Paraguay importa cada año 200 millones de discos vírgenes, una cifra muy superior a la que demanda el mercado doméstico. La mayoría de estos discos, utilizados para la duplicación ilegal de programas, se dirigen a Ciudad del Este, localidad situada en la triple frontera ente Paraguay, Brasil y Argentina, uno de los centros de contrabando más importantes del mundo.

En el caso de Brasil, Hardoy dijo que el crecimiento informático del país, que acumula el 50 por ciento de todo Latinoamérica, también está provocando el aumento de las falsificaciones.

La piratería en Latinoamérica supone unos 3.000 millones de dólares al año en pérdidas para las compañías informáticas.

Según el estudio de IDC, Latinoamérica tiene una tasa de piratería informática del 66 por ciento, una de las más elevadas del mundo.

Los especialistas explican que las razones de este número hay que buscarlas en las condiciones socio-económicas, así como factores culturales.

Hardoy dijo que "también hay factores culturales. Muchas veces se permite una mayor flexibilidad para romper las reglas. Y también son países con otros problemas donde la protección de la propiedad intelectual no es una prioridad para los gobiernos".

GOOGLE KNOL



Google prepara su propia Wikipedia
La compañía de Internet anunció knol , un proyecto de enciclopedia colaborativa que competirá en conocimiento con la creación de Jimmy Wales

Google, el gigante entre los buscadores de Internet, anunció que planea crear una obra de referencia que solucione uno de los principales problemas de la enciclopedia colaborativa Wikipedia: el de la autoría.

Google inventó la palabra knol , una abreviación de la palabra conocimiento en inglés ( knowledge ), para describir los artículos que serán escritos de manera gratuita por millones de especialistas y posteriormente publicados en la página.

El proyecto fue anunciado por un ejecutivo de la compañía de Internet, Udi Manber, en el blog oficial , donde se explica que un know es una unidad de conocimiento.

El proyecto desató una ola de especulaciones en torno al objetivo que persigue el buscador detrás de este proyecto. Manber afirmó que serán bienvenidos los artículos de especialistas de todos los campos existentes, que serán subidos a la página para que los lectores los comenten y evalúen.

El autor de un know puede optar por recibir dinero de los anuncios que se encuentran a los costados del artículo.

"Nuestro objetivo es motivar a la gente que sabe de un tema en particular a que escriba un artículo", decía el anuncio de Google. "La idea clave detrás del proyecto knol es darle a los autores un lugar destacado."

De interés general . Google, que aún no adelantó si la herramienta estará disponible en otros idiomas además del inglés, comentó que no editaría las contribuciones y que esperaba que hubiera varios artículos de un mismo tema que compitieran por ser elegidos como mejor artículo.

Los knols sobre entretenimiento, informaciones sobre productos e instrucciones sobre cómo reparar cosas serán bienvenidos. La herramienta funcionará como un blog y otras redes sociales en Internet que cuentan con la posibilidad de que los lectores agreguen comentarios y puntajes.

El anuncio no aclaró si los lectores podrán corregir errores de ortografía y de tipeo, una de las intervenciones más comunes entre los lectores de Wikipedia. "Un knol debería ser lo primero que quiera leer alguien que busque este tema por primera vez", afirmó Manber.

Rivales en conocimiento . Know parece ser un reto directo a la Wikipedia, la enciclopedia plurilingüe de Internet fuendada en 2001, que puede ser editada por cualquiera que lo desee.

La Wikipedia tiene más de 2 millones de artículos en inglés y aparece en 253 idiomas. Está entre las diez primeras páginas web más populares y funciona como una ayuda estándar para los deberes escolares de los niños de muchos países.

La página ha sido premiada por legitimar la escritura en "fuentes abiertas", que pueden ser copiadas de manera gratuita y no le pertenecen a nadie.

Escribir para la Wikipedia puede ser parte de un impulso, pero muchos de sus contribuyentes se frustran por el principio de igualdad vigente. Si dos contribuyentes, que por lo general son anónimos y hacen uso de pseudónimos, no concuerdan, suele ganar el más obstinado.

La cuestión que genere desacuerdo puede ser puesta a discusión de los demás usuarios, pero allí también suele ganar aquella postura que cuente con más opiniones.

Si se trata de diferencias políticas, lo que sucede por ejemplo en el caso de Taiwan, pueden suscitarse disputas masivas. Wikipedia también prohíbe la "investigación original", en otras palabras, un especialista no puede citar sus propios conocimientos.

Wikipedia elimina ciertas informaciones como consejos de reparación o informaciones acerca de un producto por no ser artículos "enciclopédicos".

domingo, diciembre 16, 2007

ADICTO A INTERNET


Los expertos alertan de la adicción a Internet


Psiquiatras alegan que el uso abusivo de la Red no tiene los mismos efectos negativos en la familia o la salud que adicciones propiamente reconocidas.

Así como algunos son adictos a las drogas, el juego o el tabaco, otros lo son a pasar horas pegados a Internet, un fenómeno que un creciente grupo de especialistas de Estados Unidos considera un "problema psiquiátrico".

La enfermiza afición a la Red ha sido ya diagnosticada por ciertos expertos como Trastorno Adictivo a Internet (TAI), y se estima que entre el 6 y el 10 por ciento de los aproximadamente 189 millones de usuarios en EEUU lo padecen.

También llamada "Internet-dependencia", esa adicción se detecta por comportamientos relacionados con la Red que interfieren en la vida normal de una persona, causando estrés severo a su familia, amigos y trabajo.

Una persona que pasa horas al día frente a la computadora navegando por Internet, enviando correos electrónicos, negociando acciones, chateando o jugando puede considerarse un "ciberadicto" y, por tanto, necesita ayuda.

"Si el patrón de uso de Internet interfiere con tu vida o tiene impacto en tus relaciones de trabajo, familiares y de amistad, debes de tener un problema", anota Kimberly Young, fundadora del Centro para Adicciones en la Red, con sede en Pensilvania.

En opinión de Young, los "ciberadictos" optan por el placer temporal en lugar de las relaciones íntimas y profundas. Los enfermos cibernéticos entran en un círculo vicioso, ya que la pérdida de autoestima crece a medida que aumenta su adicción a Internet, lo que a su vez eleva su necesidad de escapar de la realidad y de refugiarse en la Red.

Otros tipos de adicciones son las relacionadas con actividades interactivas como el "chateo", la mensajería instantánea y los videojuegos, así como los sitios de apuestas, subastas y compras.

De todos modo, algunos psiquiatras son escépticos y señalan que el uso abusivo de Internet debe calificarse de adicción "legítima", ya que no tiene los mismos efectos negativos en la familia o la salud que adicciones propiamente reconocidas, como el alcoholismo.

Bueno respecto a esto ultimo psiquiatras diferimos un poco porque hay que diferenciar en lo que es abuso de internet; si solo nos referimos al abuso a su uso exagerado quizas esto no deba ser visto como un patologia, aquellas personas que realmente entienden sobre computacion saben que las computadoras son herramientas, nada mas y nada menos.

Si somos conciente no delegamos el control de nuestras vidas a los sistemas de computacion en lugar de eso, los utilizamos de manera que se adapten a nuestra necesidades. Al saber como usar las computadoras, en realidad podra ser mas autosuficiente , sin importar si la utiliza para investigar, comunicarse con otra persona, realizar tareas laborales o simplemente entretenimiento.

Espero que luego de este articulo le saquemos mejor uso a las maravillosas e importante PC

REDES SOCIALES El secreto del éxito de Facebook


Conoce la red social más popular y algunas de las aplicaciones que la han alzado a lo más alto dentro de los portales interactivos de la web. Lejos de ser excluyente, Facebook no agrupa a sus internautas por inquietudes, edades o sexo sino que los deja interactuar libremente para que, a través de fotografías y comentarios en el espacio de cada uno, se conozcan y entablen amistad.

Introducción

Al igual que las tangibles, las aplicaciones virtuales para la gestión de comunidades se constituyen en espacios cognitivos que facilitan la interacción de distintas lógicas culturales motivadas por intereses comunes. En ellas prima el estímulo a la comunicación, la participación y el intercambio de información como base de las relaciones. Además, gracias a la labor de las redes sociales de brindar niveles de participación, acceso y seguridad, el usuario asume uno o varios roles dentro de la comunidad, y con ello define el grado de acercamiento que tendrá con otros usuarios.

Internet ha ganado un espacio importante en nuestras vidas gracias al carácter masivo de sus herramientas y servicios, que ha llevado a que destinemos más tiempo para navegar en la Red en detrimento de otros «espacios sociales». Anteriormente, para relacionarnos, acudíamos a la escuela, la familia, la religión, el trabajo…; pero ahora, con Internet, el orden de prioridades de cada uno de estos espacios en la definición del ser social ha cambiado. Las relaciones cara a cara tienden a desplazarse en favor de las mediatizadas, que convencen por lo atractivo, conveniente y fácil de todo lo virtual. En general, se observa una reconfiguración del mundo social y de los referentes que lo constituyen.

Existe un gran número de redes sociales en la Web, cada una con tiempos, funcionalidades y audiencias diferentes. Las salas de chat son un ejemplo de aquellas de interacción inmediata. No obstante, las actuales redes sociales buscan perdurar, al menos a mediano plazo, soportadas en plataformas robustas y atractivas para los usuarios, con aceptables estándares de usabilidad y diseño, y con una constante implementación de tecnologías que permitan aumentar las posibilidades de los usuarios y mantenerlos interesados en ser miembros de la comunidad. De hecho, Facebook, la red social que más popularidad ha alcanzado en el 2007, busca constantemente innovar y ampliar los servicios a los usuarios para consolidarse como el sistema operativo central de este tipo de infraestructuras.
mas detallamente en:
http://www.pc-actual.com/Actualidad/Reportajes/Comunicaciones/Internet/20071113026

MEJOR QUE YOUTUBE ?



Puede que aún no sea demasiado conocido , pero Blip.tv tiene todas las papeletas para convertirse en el servicio de publicación de vídeos en Internet más relevante del futuro. La verdad es que será difícil superar la inmensa cantidad de contenidos presentes en YouTube, pero, salvo por ese detalle, es, sin duda, toda una referencia tanto en concepto como en ejecución.

Calidad, no cantidad
Una de las características diferenciadoras del servicio que nos ocupa es precisamente la orientación de sus contenidos. Aunque cualquiera puede subir vídeos, en la página principal, destacan aquellos que están publicados en forma de series o episodios. Así, será más complicado encontrar los típicos vídeos virales que se transmiten como la pólvora a través del boca a boca o más bien, de blog en blog y, al parecer, también hay ausencia de los tradicionales vídeos familiares y personales.

Puede que esto suponga un impedimento para su popularidad a todos nos gusta ver vídeos virales de cuando en cuando, pero lo cierto es que le permite centrarse en contenidos en los que prima la calidad. Algo que no evita que también encontremos clips que escasean tanto en compresión como en producción, pero si nos centramos en los llamados shows, nos daremos cuenta de que Blip.tv ha aprovechado muy bien sus ideas.

Opciones para todos
Para empezar, publicar vídeos en Blip.tv se puede hacer desde la web, pero también desde un cliente de FTP, desde el móvil o desde una utilidad propia llamada UpperBlip. Aunque el servicio convierte los vídeos a Flash 8 con una calidad muy decente, cualquier usuario puede subir el contenido en el formato original para que otros internautas accedan a él vía streaming o descarga. De hecho, nosotros mismos prepararemos los formatos en los que vamos a ofrecer el vídeo en descarga, una novedad interesante para los creadores de contenidos que quieran controlar la calidad de sus clips.

Una vez en el portal, nos daremos cuenta de que los vídeos que se muestran en un reproductor en formato panorámico muy bien ejecutado tienen una calidad excelente, pero, además, las opciones que los rodean son superiores a las de sus rivales. A las tradicionales funciones sociales, se añaden las de suscribirse a un feed RSS o la de asociar el canal a iTunes. El reproductor da acceso incluso a la característica Guide, que muestra más información sobre el argumento del clip y, si forma parte de una serie, se mostrarán el resto de episodios de forma vistosa en la parte derecha. La exportación a otros blogs también dispone de varios formatos según cómo queramos que el vídeo aparezca y las opciones de búsqueda permiten organizar contenidos incluso por el formato elegido. Ya sólo resta que probremos el servicio y comprobemos que hay muchas más opciones de las que propone YouTube.

Características
Servicio para publicar, disfrutar y compartir vídeos basado en el formato Flash Video pero que, además, soporta un gran número de formatos adicionales. El reproductor integra numerosas opciones sociales y extras, como las guías electrónicas de cada vídeo, la exportación en diversos formatos o la presencia de otros episodios en la serie a la que pertenece el clip.

Lo mejor
Reproductor Flash excelente, calidad de los vídeos, interfaz de uso sobresaliente, presencia de todo tipo de extras para aprovechar los vídeos tanto en descarga como en sindicación. Plataforma publicitaria para ingresar dinero
Lo peor
No dispone de capacidad de edición de los vídeos ni de soporte para contenidos en alta definición
Precio: 0,00

Service Pack 1 de Office 2007 SP1


El lanzamiento de la versión final se ha adelantado respecto a la fecha prevista para principios de 2008. Con esta actualización se corrigen errores y se mejora el rendimiento y la seguridad.

Desde ayer ya se puede descargar el primer service pack para Microsoft Office 2007. Con esta actualización la compañía da respuesta a los requerimientos más comunes de los usuarios, estudiados a través de los errores "Dr. Watson" reportados. Entre otras ofrecerá mayor estabilidad, al solucionar al menos los cinco problemas más frecuentes de cada aplicación. Asimismo se mejora el rendimiento y la seguridad

Esta seguridad la ofrecera
TREND MICRO: PROTECCIÓN INTELIGENTE CONTRA AMENAZAS.
«Las soluciones de seguridad Trend Micro Worry Free para la pyme ofrecen protección automática frente a amenazas, defensa completamente integrada y simplificada y administración cero ».

El SP1 ofrece además algunas ventajas para empresas, como mayor facilidad de despliegue o mejoras en Project Server y SharePoint Server.

Según informa Microsoft el SP1 no se va a distribuir de forma automática por el momento debido a "las reticencias de los clientes en los últimos meses a las actualizaciones automáticas".
Los usuarios de la Suite podrán descargarlo manualmente desde la web de descargas de Microsoft

REDES SOCIALES


Fotolog enfurece a sus usuarios
La red social donde millones de adolescentes exponen sus fotos ha tomado la impopular decisión de vetar la posibilidad de que personas ajenas al sistema «posteen», enfureciendo a sus usuarios que amenazan con cerrar sus cuentas

Desde que se anunciara el pacto entre la popular red social de fotografías, Fotolog, y el buscador Google muchas han sido las quejas lanzadas desde los propios espacios que los usuarios poseen en la plataforma.

«Exijo el modelo antiguo de fotolog, súmate!Si no te gusta el nuevo modelo espero que pongas este texto en tu flog», con este texto como imagen miles de usuarios, en su mayoría adolecentes , han iniciado su propia campaña de márketing viral para defender el lugar donde exponen sus sueños, sus miedos y sobre todo sus cuerpos.

Los tan criticados cambios a los cuales se refieren son la reforma de la interfaz de la página pero sobretodo el veto a la posibilidad de que usuarios ajenos al sistema «posteen».

Este cambio se debe probablemente a un intento por controlar el spam y las cadenas que en los ultimos meses habían pegado fuerte en la popular plataforma pero muchos usuarios estiman que es responsabilidad de cada «floguero» mantener limpio su espacio. «Tu fotolog es como tu casa, más bien dicho es como una ventana a tu intimidad y ahi tú tienes que poner las reglas, no las puede poder el administrador por ti» afirma una cibernauta muy descontenta con el cambio.

Muchos usuarios se quejan de que antes podían decidir si tenían un fotolog abierto o cerrado a otros usuarios e incluso podían determinar el grado de apertura de su espacio eligiendo quien podía «postear» y quien no.

Dentro de las redes sociales Fotolog es la más básica de todas, casi no permite ninguna personalización en su versión gratuita pero cuenta con una gran popularidad entre el público adolescente que utiliza la plataforma para exponer su vida a su antojo.

En este sentido Fotolog respeta bastante menos la intimidad que otras redes sociales ya que todas las páginas están en la red, al contrario de otras plataformas como Facebook, donde sólo se puede acceder al perfil de un usuario mediante una invitación.

No existen datos sobre si esta medida ha afectado al flujo de la plataforma pero a juzgar por lo que publican muchos adolescentes iracundos que amenazan con cerrar sus cuentas si la empresa no deshace la reforma, el tráfico podría haber disminuido.

viernes, diciembre 07, 2007

La música en el móvil acecha al CD



El fin del CD está cada vez más cercano. Este soporte físico podría seguir muy pronto los mismos pasos de su predecesor, el vinilo, a la luz de un estudio según el cual dentro de cuatro años un tercio de la música se comprará a través del móvil.

En 2011, un 30% de las compras de música se realizarán mediante las redes de los operadores móviles, según un informe de la firma de investigación británica Understanding & Solutions.

A día de hoy, las descargas de música en el móvil suponen el 13% de todas las ventas de música. En 2011, serán el 30%; aproximadamente 11.000 millones de dólares que ayudarán a compensar el declive de los ingresos por la música empaquetada en soportes físicos. Este incremento se deberá principalmente a que en los mercados emergentes, donde el móvil ha tenido una gran aceptación y se ha convertido en el principal soporte, el CD no ha tenido tirón por dos razones: la piratería y la falta de hardware en propiedad.

El informe apunta también que Japón, seguida muy de cerca por Estados Unidos, tiene las plataformas de música móvil más eficientes, aunque las interfaces y el software deberán seguir mejorando para hacer la experiencia móvil comparable a la online.

Lo más buscado del año en Google: iPhone a la cabeza


El teléfono de Apple, que experimentó en 2007 un gran crecimiento en las consultas, se ubicó primero entre las 10 palabras más consultadas en el portal. Tres redes sociales, en tanto, ocupan un lugar en el ranking: MySpace, Facebook y Webkinz .

Google dio a conocer su ranking de las 10 de palabras más buscadas durante 2007 y fue iPhone la que ocupó el primer lugar. Poco consultado en 2006, fue el término que experimentó el mayor crecimiento durante el año.

Detrás del teléfono de Apple se ubicó el sitio de juegos online Webkinz y en tercer puesto TMZ, un portal de información sobre el mundo del espectáculo.

De acuerdo a los datos proporcionados por el megabuscador, otras dos redes sociales consiguieron aparecer en el top 10: MySpace y Facebook ocupan el séptimo y el noveno lugar respectivamente. El portal de videos YouTube, en tanto, se ubicó en el quinto.

En cuanto a espectáculos, Transformers –película que se estrenó este año y disparó las búsquedas- y la serie Héroes se colocaron en el cuarto y octavo puesto. Anna Nicole Smith, la conejita de Playboy que murió de una presunta sobredosis, cierra el ranking.

Por obsceno, Microsoft elimina a Papá Noel del MSN


Un británico denunció que una conversación entre el personaje virtual y su pequeño sobrino terminó de forma inapropiada. El Papa Noel estaba programado para preguntarle a los niños qué querían para Navidad.

La empresa Microsoft desconectó de forma urgente al Papá Noel virtual que había creado para el MSN messenger, luego de que un usuario denunciara que el personaje utilizaba un lenguaje poco apropiado.

El año pasado, Microsoft invitó a los niños del mundo a conectarse de forma directa con "Santa", añadiendo a sus contactos de MSN messenger la dirección northpole@live.com.

Este mismo programa, que fue reactivado este año a principios de diciembre, les pregunta a los chicos qué quieren para Navidad y puede responder a preguntas sobre el tema, informó el portal del diario El Mercurio.

Pero la felicidad navideña duró poco: esta semana un lector de un diario inglés escribió al periódico para denunciar que una conversación entre el Papá Noel virtual y su sobrino había terminado de forma inapropiada.

Uno de los periodistas de la publicación reprodujo la conversación. Después de rechazar las invitaciones a comer pizza, el Papá Noel virtual exclamó: "¿Quieres que coma qué? Es entretenido hablar sobre sexo oral, pero quiero hablar de otra cosa".

Microsoft actuó rápidamente y desconectó al personaje el martes pasado. Ayer miércoles fue visto online, pero no respondía a los mensajes.

Microsoft lanza una plataforma propia para compartir vídeos


Microsoft anunció hoy el lanzamiento de MSN Video, una plataforma propia para compartir vídeos creados por los usuarios a través de internet, y en el que se ofrecerán también vídeos de contenido informativo y actualidad, facilitados por proveedores a la compañía, y caracterizados por la "total pluralidad de sus contenidos".

El proyecto se apoya en su propia tecnología, que cuenta con una pantalla de gran tamaño (432 x 320 píxeles) y ofrece una definición igual a la del DVD.

Este servicio estará disponible para los usuarios de MSN/Windows Live y ofrecerá opciones de búsqueda en las que aparecerán dos resultados: los vídeos de los usuarios y los almacenados en la plataforma de Soapbox, lanzada por Microsoft en versión en pruebas y que ha sido integrada en este proyecto.

La oferta de vídeo permite encontrar contenidos que recogen los temas de actualidad y disfrutar de todo esto al mismo tiempo que visualizas un vídeo. Se clasifican por Cine, Corazón, Humor, Cocina, Noticias, Tendencias, Música, Deportes y Viajes.

El usuario puede estar conectado y compartir los vídeos con su familia y amigos gracias a la integración con el resto de servicios como el Messenger, Windows Live o Windows Live Spaces. Además, la nueva versión permite enviar el clip o colgarlo en un 'blog' previo registro del usuario.

MSN Vídeo ofrece información adicional al pasar el puntero sobre el vídeo elegido y permite agregarlo a una lista de reproducción.

Además, facilita compartir vídeos con la red social del usuario de forma sencilla, ofreciendo la posibilidad de incluir lista de RSS en todas las páginas. Para el lanzamiento de esta nueva versión mejorada, MSN Vídeo cuenta con artistas como las Spice Girls, Oasis, Smashing Pumpkins o Dazzling Divas.

Derechos de autor y seguridad
Con la nueva versión de MSN Vídeo, Microsoft ha sido cuidadoso para cumplir todos los requisitos de derechos de autor. En este sentido, ha implantado un equipo local encargado de velar por los derechos de autor de los vídeos que se suban y quitar todos aquellos que no cumplan con la normativa.

Además, un equipo vigilará que los vídeos no muestren "contenidos poco apropiados" y facilitará los avisos a este respecto de los usuarios a través de un link.

El equipo editorial estará en disposición de actuar y bajar el vídeo en 48 horas y emprenderá un proceso legal en caso de ser necesario con las autoridades pertinentes