El debate de la neutralidad de la red va a la UIT (Unión Internacional de Telecomunicaciones)

«El enemigo de mi enemigo es mi amigo.» Esta es una manera de entender la propuesta más reciente de la ETNO (Asociación europea de operadores de redes de telecomunicaciones) a la UIT (Unión Internacional de Telecomunicaciones) para regular la posibilidad de crear una Internet de “varios niveles”. ¿No estaban los operadores de telecomunicaciones en contra de una mayor regulación, sobre todo dentro de un marco global, tales como la UIT? Las apuestas aumentan: exigir a la UIT que se permitan excepciones a la neutralidad de la red puede impedir que los reguladores nacionales establezcan lo contrario!

En su entrevista con CNET, Luigi Gambardella, presidente de la junta ejecutiva de la ETNO, explica claramente el principio propuesto en el tráfico de Internet de que ‘la parte remitente paga’. Gambardella explica: «… los operadores tienen libertad para negociar acuerdos comerciales más allá de lo posible. Estos acuerdos comerciales se basan en el valor de la información, no en los bits. “

El concepto de Internet de varios niveles, la neutralidad de la red, y los precios

Para intentar que grandes proveedores de contenidos como Google, Facebook, o Hollywood paguen una tasa por la utilización de la infraestructura de telecomunicaciones y así llegar a sus clientes (y ganar fortunas), los operadores proponen introducir “la capa de negocio” de Internet, es decir, servicios especiales con una calidad que vaya más allá del principio del mejor esfuerzo, que es la norma actual en Internet. Para mantener una Internet abierta, argumentan, esta capa de negocio se ejecuta en paralelo con el «nivel económico», es decir, la Internet tal y como la conocemos ahora, que se mantendría sin cambios y con base en el principio del mejor esfuerzo.

Las propuestas sobre una Internet de varios niveles han estado en el centro del debate sobre neutralidad de la red durante años. La ETNO ha estado impulsando esta idea junto con otros grandes operadores de todo el mundo. La capa de negocio también se ha propuesto, en el sentido de crear nuevos servicios en línea, por parte de Verizon y Google en su propuesta de un marco legislativo para una Internet abierta en 2010.

La oposición de las comunidades de Internet ha sido siempre muy fuerte y clara. La Electronic Frontier Foundation (EFF), en su análisis de la propuesta de Google y Verizon, señaló que la propuesta de «servicios adicionales en línea … podría ser la excepción que confirma la regla de la no discriminación».

Gambardella sostiene que la Internet de varios niveles puede dotar al usuario de más opciones:

“Al final, el cliente tendrá más opciones. Es como si viaja en clase turista. Pero, ¿por qué no permitir también las business class, clases “premium,” para diferenciar el servicio? Hay más opciones. El cliente decide lo que es mejor para él. “

Sin embargo, al tener asientos “business class” y otros más económicos que van a través de la misma red, y compartir el mismo ancho de banda total disponible, es probable que el nivel económico sea el que salga perjudicado en caso de congestión. O bien, para continuar con la analogía del avión, Gambardella dice: hay un número limitado de asientos económicos y otros business class en un avión, y ningún asiento irá a la clase turista si hay una mayor demanda de ellos en comparación con la demanda de asientos business, ergo, los asientos económicos se verán afectados. Además, el argumento de que habrá «más opciones» se torna vago o incierto en la era digital, como he argumentado en uno de mis blogs anteriores: ¿la gran mayoría de usuarios puede realmente tomar decisiones informadas y significativas, y decidir qué es lo mejor para ellos?

Por otro lado, y no por ello menos importante, la comunidad de Internet está pidiendo a los operadores que sean más creativos e innovadores en la construcción de nuevos modelos de negocio, en lugar de encontrar formas fáciles de coger un trozo del pastel de los ingresos de los proveedores de contenidos. En su excelente post “Carriage vs Contents”, Geoff Huston explica el conflicto de décadas entre operadores de telecomunicaciones y los proveedores de contenido, y en quién debe dinero a quién: desde ‘Tú nos debes dinero!’ A ‘No, eres tú quien nos debe dinero » y viceversa.

La propuesta de la ETNO, más allá de pedir una Internet de varios niveles, también sugiere un cambio fundamental en el modelo económico de Internet a través del principio de «la parte remitente (la que envía), paga», explicando cómo los ingentes ingresos de la industria de contenidos se podrían distribuir así, entre los operadores. Este nuevo clamor de «que nos debe dinero!” ha provocado una fuerte oposición de las empresas líderes de Internet líder en los EE.UU., incluyendo Verizon, y también el gobierno de los EE.UU. Sería necesario un post aparte para discutir los aspectos económicos de la propuesta, así que no voy a entrar en detalles.

Regular o no regular

La propuesta de ETNO se presenta como una enmienda al Reglamento de las Telecomunicaciones Internacionales (RTI), el tratado que determina cómo los servicios internacionales de telecomunicaciones operan a través de las fronteras. Este Documento de la UIT se va a actualizar en la Conferencia Mundial de Telecomunicaciones Internacionales (CMTI) en diciembre (Dubai), por primera vez desde que fue desarrollado en 1988.

Las controversias en torno a la CMTI y las modificaciones de la ITR han estado rondando los foros mundiales de diplomacia y política desde hace varios años, ganando intensidad a medida que nos acercamos a la reunión de Dubai. La posición varía desde los países más desarrollados se oponen a la UIT a extender su mandato a través de Internet, a la mayoría de los países del sur, que abogan por la búsqueda de una mayor influencia sobre la regulación de Internet bajo el paraguas de la UIT. Los Negocios en Internet – especialmente los dominantes de EE.UU. y proveedores europeos de contenidos y los operadores de telecomunicaciones – han estado casi unánimemente en contra de una mayor regulación, tanto a nivel local como a nivel mundial para ellos, dando más voz a la UIT, que significaría la globalización de la gobernanza de sus modelos de negocio y los mercados.

Ahora, es la asociación europea de operadores de telecomunicaciones quien se propone que la UIT extienda su mandato para permitir que los operadores negocien acuerdos comerciales más allá del principio de mejor esfuerzo – es decir, introducir una capa de negocio a través de Internet. En efecto, como las comunidades de usuarios dirían, ETNO propone que las nuevas normas mundiales de telecomunicaciones permitan excepciones al principio de neutralidad de la red.

Este movimiento, de hecho, es bastante lógico: si existiera un tratado global que permitiera crear varios niveles en Internet, los reguladores nacionales tendrían mucho menos espacio de maniobra para proteger el principio de neutralidad de la red. Debido a la presión de las comunidades de Internet a sus gobiernos y los reguladores de línea para proteger una Internet abierta, varios Estados ya han incorporado el principio de no discriminación en sus actos políticos – incluyendo los EE.UU., Noruega, Países Bajos, y otros (como ya he informado anteriormente), pero para la ETNO, esto puede ser el medio para el fin de esta tendencia.

Gambardella (@lgambardella) a través de Twitter confirma que mediante esta propuesta la ETNO quiere evitar cualquier regulación más en Internet. En su entrevista con CNET, en la que justifica el enfoque de la ETNO con el proceso de la UIT, reconociendo la ITR como principio de alto nivel, una especie de «constitución» mundial, y explica los motivos:

Porque lo que puede pasar es que en un año, o dentro de dos años, algún Estado tal vez pida introducir alguna limitación al “nuevo” Internet. Así que, básicamente, la paradoja es que nuestra propuesta es impedir que algún estado miembro pueda regular aún más Internet.

Huelga decir que, esta propuesta plantea un montón de oposiciones no sólo de los EE.UU., sino también desde la UE, que ha anunciado claramente que su posición será la de oponerse a cualquier intento para extender las regulaciones de la UIT para el enrutamiento del tráfico contenidos de Internet. Más importante, los operadores compañeros de ETNO de los EE.UU., como Verizon y AT&T, también plantearon serias dudas sobre esta propuesta – tanto porque están, en principio, en contra de que se amplíe el mandato de la UIT a través de Internet, como porque están en contra de los nuevos modelos económicos que sugieren la ETNO y que probablemente afectarían a los actuales negocios estadounidenses dominantes.

«El enemigo de mi enemigo es mi amigo». ETNO ha decidido luchar contra el Reglamento nacional / regional (encarnado por los gobiernos y reguladores europeos) a través del enemigo del enemigo .

– La regulación global (encarnada en la UIT), lo que es un cambio de sentido en el complejo de múltiples partes interesadas en las relaciones dentro del proceso de la política global de las TIC. Con su gran cantidad de actores influyentes,
la diplomacia contemporánea es cada vez más complejo e impredecible, ¿no es así?

Traducción no oficial (pido disculpas por los errores) del artículo de Vladimir Radunovic. Link del artículo original completo:

http://www.diplomacy.edu/blog/net-neutrality-debate-goes-itu-wcit

Google: los inicios del gigante.

«“Don’t be evil” (no seas malo) es el lema de Sergey Brin y Larry Page, los dos fundadores de Google. Los ex-estudiantes de Stanford, gracias a una meticulosa gestión de su propia imagen, han creado un “Gigante Bueno”, impaciente por archivar nuestras “intenciones de búsqueda” en sus ilimitadas bases de datos. El alter-ego digital de millones de usuarios parece estar en buenas manos, confiado al principal datacenter de Mountain View, California, conocido como Googleplex. Aquí, como en los demás centros de archivo de datos de Google –que están surgiendo como setas en todo el mundo- se perfeccionan verdaderas armas para combatir la guerra para el control de las redes. En primer lugar, se difunde la práctica del capitalismo blando de la abundancia: se trata de una estrategia de control biopolítico en sentido estricto, que ofrece ambientes de trabajo confortables, palmaditas en las espaldas y gratificaciones a los dependientes. Los trabajadores, satisfechos y lisonjeados, se dejan explotar alegremente y se convierten en los mayores sostenedores de la empresa, orgullosos de promocionar una imagen ganadora y “buena”.

Google se autodefine como un instrumento “democrático”, basado en el presunto carácter “democrático” de la Web. Su algoritmo de indexación de la Red, PageRank (TM), se encarga de copiar los datos digitales en los datacenter, explotando las conexiones asociadas a cada página singular para determinar su valor. En la práctica, Google interpreta una conexión de la página A a la página B como un voto expresado por la primera sobre la segunda. Pero no se limita a calcular el número de votos, o conexiones, asignadas a una página. Google analiza la página que ha asignado el voto: los votos expresados por páginas “importantes” tienen más relevancia y por lo tanto contribuyen a dar “mayor valor” también a las páginas linkadas. El PageRank asigna a los sitios Web importantes y de alta calidad un voto más elevado, utilizando filtros y criterios no públicos, que Google toma en cuenta cada vez que realiza una búsqueda. La “democracia” de Google ordena, pues, la Red en base al número de votos recibidos por cada página, y por la importancia de esos votos: una democracia filtrada por la tecnología.

El campo blanco de Google en el que se insertan las palabras claves para las búsquedas es una puerta estrecha, un filtro para nada transparente, que controla y dirige el acceso a las informaciones. En cuanto mediador de información, un simple motor de búsqueda se hace instrumento de gestión del saber y se halla pues capacitado para ejercer un poder enorme, convirtiéndose en una autoridad absoluta en un mundo cerrado. El modelo cultural de Goolge es por lo tanto expresión directa de un dominio tecnocrático.

Los motores de búsqueda. Google NO fue el primer buscador de la Web

La mayoría de los usuarios cree erróneamente que Internet y la web coinciden, porque la web es el aspecto más sencillo e inmediato de Internet. En realidad la Red es mucho más compleja, heterogénea y variada de la web: incluye también los mundos de los chat, de los newsgroup, del correo electrónico, y en general todo lo que los individuos quieren “poner en Red”, prescindiendo de la “forma” en la que estas informaciones se presentan. Además, la Red no es estática, sino dinámica. Esto significa que las conexiones entre los recursos se modifican, están sujetos a cambios (nacimiento, transformación, muerte).

La web, tal y como la conocemos hoy es un invento de Tim Bernes-lee, Robert Caillau1 y otros científicos europeos y americanos. Entre 1989 y 1991 en el CERN de Ginebra se crean los primeros browser, el protocolo http y el lenguaje html para la composición y visualización de documentos hipertextuales, es decir documentos que contienen links (ya sean internos a cada documento ya sean entre documentos distintos). Esta nueva tecnología se presenta como una implementación de la Red de Internet, un proyecto americano resultante de la fusión de distintos proyectos universitarios y militares.

Los primeros motores de búsqueda obviamente no eran consultables vía web: eran verdaderos programas instalables y configurables en el propio ordenador. Tales instrumentos indexaban los recursos de Internet mediante protocolos como ftp (para el intercambio de file), Gopher (un rival del emergente http) y otros sistemas ya caídos en desuso.

En 1994 es operativo el primer motor de búsqueda basado en la web: WebCrawler, un experimento financiado por la universidad de Washington.

En los últimos meses de 1994 el motor de búsqueda Lycos conseguía indexar en muy pocos meses más del 90% de las páginas de aquel entonces (unos 10 millones aproximadamente). La principal innovación de Lycos era la de excluir sistemas fulltext para la catalogación, analizando solo las primeras 20 líneas de toda página indexada, en lugar de examinar el contenido integral del texto de cada página. Esto le permitía a Lycos mostrar en los resultados incluso una pequeña descripción extrapolada de las mismas líneas.

Con la llegada de Excite, en diciembre de 1995, los resultados empiezan a ser ordenados en base al criterio de importancia de las páginas.
El panorama de los precursores de Google no sería completo sin una mención a lo que en 1997 era el mejor motor de búsqueda existente, y también el más popular: Altavista.

Altavista, que quiere decir “vista desde lo alto”, se valía de los resultados de un grupo de investigación de la Digital Equipment Corporation (DEC) de Palo Alto, California, que en la primavera de 1995 había conseguido almacenar todas las palabras de una página HTML presente en Internet en un índice en el que era posible realizar búsquedas. Esto le había permitido el desarrollo de la primera base de datos abierta a la consulta directa del World Wide Web. La mente de AltaVista era Louis Monier  que, usando cluster de ordenadores conectados entre sí, hardware a la vanguardia y lo mejor de las tecnologías entonces disponibles, había conseguido que su creación fuese el motor de búsqueda más utilizado y apreciado por los usuarios. AltaVista ha sido también el primer motor de búsqueda multilingüe en Internet y la primera tecnología de búsqueda capaz de soportar textos en chino, japonés y coreano. Finalmente, ha introducido un sistema de traducción automática Babel Fish, aún muy utilizado.

Antes de su fracaso6 en 1997, AltaVista daba servicio a 25 millones de búsquedas diarias y recogía 50 millones de dólares anuales de los patrocinios, ofreciendo su servicio de búsqueda a los usuarios del portal Yahoo!, que sigue siendo todavía el mayor antagonista de Google en el mundo Web.

Nacimiento de Google

La palabra Google procede de “Gúgol”, término matemático que indica un 1 seguido por 100 ceros. La leyenda quiere que éste fuese el número de páginas web que Larry Page y Sergey Brin soñaban con indexar con su nuevo instrumento de búsqueda.

La innovación fundamental introducida por Google es la de dar un vuelco al proceso de indexación de las páginas: ya no se enumeran los sitios en base a la “proximidad” con respecto a la pregunta realizada, sino que se muestran los resultados exactamente en el orden “correcto”, es decir los que responden a las expectativas del usuario. El primer link es el que da la respuesta “exacta” a la pregunta; los sucesivos se alejan poco a poco del centro de la pregunta7.
En esta óptica nace el conocido botón “hoy me siento afortunado”: clickandolo, se abre directamente el primer link de la búsqueda de Google, presentado como el link indiscutiblemente “correcto”.

El algoritmo que Larry Page “inventa” para calcular la importancia de una página web, conocido como PageRank, se basa en la matemática estadística de los primeros años del Novecientos y especialmente en las fórmulas desarrolladas por Andrej Andreevic Markov para calcular, dentro de una Red, la importancia de un nudo respecto a los demás.

Así en marzo de 1996 Page lanza su spider, un programa para explorar la web, testándolo con el algoritmo de ranking que había desarrollado.

Page e Brin desarrollan y prueban Google durante todo el primer año y medio de vida usando instrumentos libres puestos a disposición por las comunidades Free Software y Open Source, a partir del sistema operativo GNU/Linux. De esa manera implementan un instrumento fuertemente modular y escalable, que se puede expandir y modificar fácilmente incluso mientras está siendo usado. Esta estructura modular hoy en día es la base del datacenter15 de Google, el Googleplex, que permite sustituir o añadir hardware y software, realizar su manutención y actualización sin tener que bloquear nunca el servicio.

A mediados de 1998 Google da servicios a cerca de diez mil búsquedas diarias; el sistema casero apañado en la habitación alquilada por Page y Brin se halla al borde del colapso. Era preciso, pues, encontrar un sistema de financiación para el proyecto que fuese más allá de los normales fondos de ayuda para la investigación.
La salida de la universidad se atribuye al encuentro con Andy Bechtolsheim, fundador de la Sun Microsystems y consumido talent scout de la IT, que entrega a los dos investigadores un primer cheque de cien mil dólares.

Goolge Inc. abre sus puertas el 7 de septiembre de 1998 en Menlo Park, California. Más exactamente, Larry abre estas puertas conun mando a distancia: las oficinas se hallan en el garaje que un viejo amigo subalquila a la sociedad.

algunos confort no tan indiferentes: una lavadora, una secadora y un hidromasaje. Desde el principio, la filosofía empresarial de Google se basa en la satisfacción de los trabajadores.

En enero de 1999 Google abandona definitivamente el campus de Stanford, declarando: “El proyecto de investigación Google se ha convertido en Google Inc. Queremos darle al mundo búsquedas de calidad superior y mejores de las que hay actualmente, y una compañía parece ser la mejor forma para llevar a cabo este objetivo. Hemos empezado a incorporar otras personas y a configurar otros servidores para hacer que el nuestro sea un sistema escalable (hemos empezado a ordenar los server en paquetes de 21). Hemos empezado también a lanzar nuestro spider con más frecuencia y nuestros resultados no solo siguen siendo tan rápidos como antes, sino que están aún más actualizados. Estamos incorporando personas de gran talento muy rápidamente y esto comporta disponer de las últimas y las mejores tecnologías por lo que atañe la Web”… Brin y Page dedican luego algunas líneas a las diez buenas razones para trabajar en Google, incluyendo tecnologías, acciones, snacks, bebidas gratuitas y la posibilidad de que millones de personas: “utilicen y aprecien vuestros software”.

Entre 1998 y 1999 todos los motores de búsqueda y los sitios más populares del mundo están afectados por el síndrome del portal, una verdadera manía en la construcción de sitios que quieren que los visitadores se queden a cualquier precio más tiempo en la propia página, para ello incluyen cada vez más servicios, publicidad y personalizaciones. Google es el único instrumento carente de publicidad y de servicios añadidos: sólo motor de búsqueda, entre otras cosas el mejor, el más rápido, y sin lazos comerciales o patrocinadores.

Brin y Page consiguen poner de acuerdo dos de las principales sociedades de financiación de California, que sorpresivamente aceptan co-financiar una empresa particular: caso más único que raro, dos enormes sociedades de capital a riesgo (venture capitalism) se dejan convencer a compartir los riesgos, y los provechos, del eventual negocio. El 7 de junio de 1999 Google puede anunciar que  Sequoia Capital y la Kleiner Perkins Caufield & Byers le han concedido una financiación de 25 millones de dólares.

El modelo de business que se revela más adecuado a la nueva sociedad es la publicidad directa dentro del motor de búsqueda, mediante el cálculo del número de visitantes que acceden a los sitios desde los links promociónales y de pago. Este modelo económico, CPM (Coste por Mil Impresiones –en inglés CPT, Cost per Thousand Impresión) se estructura de manera tal que parece el menos indiscreto posible para el usuario; de hecho, en lugar de mirar hacia la extrema visibilidad de los anuncios publicitarios, se muestran solo unos pocos links atentamente seleccionados en la parte de arriba de la búsqueda. Estos links tienen colores y caracteres distintos de los que no son comerciales, pero intentan no molestar de ninguna forma la actividad de búsqueda del usuario.

Un modelo económico basado en la aparición de simples links a los que patrocinar, colocados al lado de las búsquedas, es poco ventajoso en términos de provecho; en este punto la planificación empresarial a largo plazo de Google necesita de un salto de calidad. Los presidentes miran a su alrededor en busca de soluciones más interesantes y proficuas, y tropiezan en Goto, sociedad fundada por Bill Gross, hoy de propiedad de Overture/Yahoo!.

En marzo de 2000 estalla la burbuja de Nasdaq, arrastrando consigo todos los sueños de gloria de «las punto com». También se viene abajo el modelo CPM, es decir la ilusión de que toneladas de banner publicitarios a “miles de impresiones”, muy a menudo descontextualizados porque presentes en sitios totalmente ajenos al negocio de referencia del anunciante, fueran a ser una fuente inagotable de provechos. Google tiene entonces que enfrentarse con la necesidad de monetizar sus propias tecnología de búsqueda.

En octubre de 2000 entra en escena AdWords, una especie de self-service publicitario en el que los anunciantes pueden elegir las palabras de búsqueda a las que asociar su propio link comercial: una implementación de la “publicidad por palabras claves” (Keyweods advertising) ideada por Goto.

Google sobrevive por lo tanto al fracaso de Nasdaq: más bien, gracias a su naturaleza de sociedad privada aún no cotizada en bolsa, aprovecha para contratar todos los talentos en fuga de las ruinas de las demás «puntocom». A mediados de 2000 Google da servicios a 18 millones de búsqueda diarias y su índice de documentos cuenta con un billón de unidades: seis meses después las búsquedas son 60 millones.

En 2001 Google lanza “Google imágenes”.

Desde 2001 en adelante los servicios nacen a repetición, sin ningún objetivo evidente ni contracambio económico inmediato, como si Brin y Page se divirtieran a mostrar que un datacenter ilimitado es capaz de elaborar cualquier sueño tecnológico. El ejemplo más desconcertante es el poderosísimo Google Maps (Tierra, Marte 2005, y Luna 2006).

En 2005 aparecen Goolge News, la enorme base de datos de informaciones de Google que se pone así al servicio de la producción periodística, y Gmail que ofrece 1 Gigabyte de espacio mail a cada usuario.

En 2004 se lanza Google AdSense.

Desde luego, una vez creada la Red, es preciso sacarle dinero. No por puro azar, siempre en el 2005, Google experimenta un “regreso” al modelo CPM a través de la oferta AdWords con la metodología “targeting por sitio”: los anunciantes vuelven a pagar por visualizaciones (impresión) con un mecanismo de subasta y no por número de clicks en el banner.

La Bolsa

Don’t be evil”, no seas malo, puedes hacerlo todo, basta que no hagas nunca el mal. Este es el lema del capitalismo humano de Google. A pesar de estas profesiones de buena fe, ya se van registrando muchas excepciones en esta campaña a favor del Bien: juicios de varia naturaleza, sospechas de fraude, ocultación de sitios Web, etc….

Los dos, a pesar del parecer contrario de la Bolsa, siguen con la oferta pública de las acciones, justo en la mitad de agosto de 2004, aunque con una rebaja del precio de más de 20 dólares por acción.

En un solo día de contrataciones en el mercado las acciones de Google pasan desde la base de 85 dólares a 100 dólares, con una ganancia neta de un 1000 millones de dólares. Un año después las acciones alcanzan el valor de 400 dólares, con una subida de más del 300 por ciento. Para Google Inc. todo parece marchar viento en popa, en el maravilloso mundo donde nadie es malo, todos ganan, nadie se hace daño nunca. Por supuesto, frente a tales cifras, la más mínima oscilación hacia abajo quiere decir millones de dólares en humo, tal y como se vio en marzo de 2006 con una inflexión de siete puntos. Google Inc. ya es un gigante entre los gigantes de la Bolsa mundial, y si tiembla, muchos tiemblan junto con él.

Suma y sigue

En el otoño de 2004, Page y Brin, de viaje en su charter privado, se enteran de que el coloso AOL (America Online, el mayor provider estadounidense) ha firmado un contrato para su propio motor de búsqueda con Yahoo!. Los recién treintañeros cambian de rumbo, aterrizan en Londres y convencen AOL a romper el contrato que acaban de firmar y pasarse a Google con una oferta irresistible de 50 millones de dólares. No se trata exactamente del comportamiento abierto y amable que se podría esperar del gigante bueno intentando derrotar los malos monopolistas, pero sea como sea, los negocios son los negocios, también para los dos valiosos investigadores de Mountain View.

Mientras tanto las ganancias de Google Inc. en un periodo de cinco años han crecido de más del 400 mil por ciento, poniéndose en competencia directa con Yahoo! y Microsoft, no solo en términos de movilización financiera, sino sobre todo por la popularidad y en consecuencia por el dominio cultural sobre el imaginario. Millones de usuarios de la Red utilizan las páginas de Google como punto de partida para sus navegaciones, confían en los resultados obtenidos con las herramientas perfeccionadas en Mountain View.»

Texto extraído del libro The Dark Side of Google.

Si quieres bajarte el libro entero, los autores lo tienen disponible aquí con Licencia Creative commons.

 

E-Commerce: Contratación electrónica en Europa

En la contratación electrónica encontramos 3 intervinientes:

1.- El Comerciante (empresa o persona física)

2.- El intermediario (Internet service provider): Google, Ono, Telefónica, Yacom, Amazon…

3.- Consumidor o usuario

Entre el comerciante y el intermediario existe un contrato de prestación de servicios de Internet, hosting, housing, etc…

Entre el intermediario y el Consumidor/usuario hay otro contrato de prestación de servicios de Internet.

Entre el comerciante y el consumidor y usuario hay un contrato de compraventa o prestación de servicios.

Entre el Comerciante y el intermediario, curiosamente, hay poca regulación, lo que justifica que afirmemos que el legislador se ha esmerado más en la regulación orientada al consumidor más que al desarrollo del mercado.

Marco jurídico del e-commerce en Europa

En 1997, la Comisión Europea crea un marco regulador para las futuras acciones en comercio electrónico:

1.- Acceso a infraestructuras

2.- Marco regulador comunitario

3.- Promover el uso de las tecnologías

4.- Marco regulador coherente, comaptible y global

Todas estas acciones que se propusieron, quedaron recogidas en la Directiva 98/34, de la que a su vez surgieron 3 nuevas directivas:

1.- Protección de datos

2.- Derechos de autor

3.- Firma electrónica

Posteriormente, se redacta la Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior.

Esta Directiva regula algunos aspectos jurídicos, pero no se centra en la responsabilidad de los intermediarios precisamente.

 

 

Marco legal de la Sociedad de la información y el comercio electrónico (1)

Como ya comentamos, la tónica general es que Internet se autorregula, pero con excepciones en los que la Ley ha decidido entrar, como es el caso del comercio electrónico.

¿El comercio electrónico es un nuevo canal de distribución o es un nuevo mercado?

En mi opinión, además de ser un nuevo canal, obviamente, es un nuevo mercado. El gran error del legislador tanto a nivel comunitario como español es que en sus inicios concibió el e-commerce como un simple nuevo canal, cuando en realidad no todos los elementos del mercado tradicional, físico, son posibles en el virtual o electrónico.

Por tanto, crear leyes en este sentido entorpecen el mercado en lugar de crear seguridad jurídica.

El e-commerce es un nuevo mercado porque las figuras cambian. Las empresas más grandes de Internet a priori no venden nada, y encima prestan servicios gratuitos!! (Google, Facebook…), pero hay otras que sí lo hacen, y que son igualmente potentes, como Amazon. Veremos que las empresas como Google y Facebook se alimentan de nuestros datos, de toda la información que les facilitamos, y que hace que el que opera en el mercado, el usuario, sea a su vez un producto. Por tanto, el mercado electrónico tiene importantes peculiaridades y suficientes diferencias como para ser regulado como un mercado tradicional.

¿La legislación en e-commerce ayuda o perjudica?

Pues depende. En el caso de la firma electrónica ha perjudicado por intentar ir por delante de la realidad social, cuando el derecho siempre debe ir por detrás, adaptándose a los cambios que surjan.

¿La LSSI fomentar el comercio o simplemente intenta limitar los abusos?

Principalmente, no lo olvidemos, esta Ley es una transposición de la Directiva europea, y siempre surgen dudas sobre la firma electrónica, que al final se usa poco y sólo para la Agencia Tributaria, dudas sobre si se han de tener dos copias del contrato electrónico, dudas sobre el consentimiento real, dudas sobre la jurisdicción competente.

Por ejemplo, en el caso de la competencia, se protege al consumidor más que promocionar el mercado electrónico. Asé, encontramos las llamadas ventas activas o ventas pasivas. Las activas se porducen cuando por ejemplo un español acude a Paris a comprar un libro: venta activa, tribunal competente: el de París. Pero la regla general es que el tribunal competente sea el del consumidor.

Objetivos básicos de e-commerce

1.- Apertura de mercados y libre circulación

2.- Aumentar la seguridad jurídica de los prestadores

3.- Aumentar la cofianza de los consumidores

4.- Mantener la vigencia de la legislación tradicional

5.- Mínima intervención

Principios del e-commerce

1.- No autorización previa para actuar en el mercado electrónico

2.- Supresión de obstáculos jurídicos y promoción dela  contratatción electrónica

3.- Tendencia al control en origen / establecimiento

4.- Vigencia de la legislación tradicional

5.- Adaptación de las normas al mundo «on line»

6.- Intervención mínima (en realidad no es así)

7.- Fomento de la autorregulación (códigos de conducta voluntarios, sistemas privados de resolución de conflictos…).

8.- Reconocimiento de los contratos electróncios

9.- Reconocimiento del valor probatorio de los documentos electrónicos

10.- Regulación de la firma electrónica