Archive for the 'Prospectiva e innovación' Category

29
Mar
11

¿Quién recuerda a Alan Kay?

Después de visitar en 1969 el laboratorio de Seymour Papert en el MIT y de hablar con algunos alumnos de una escuela que experimentaba con el lenguaje LOGO que Paper había inventado, se convenció. Era hora de pensar en una computadora para niños de todas las edades (A Personal Computer for Children of All Ages).

Alan Kay siempre pensó que había que cambiar el modo de relacionar las personas con el contenido. Las interfaces eran un medio. Había que cambiar el lenguaje o metalenguaje e invisibilizar la tecnología. Desde entonces, Kay nunca dejó de enseñarnos sobre las TICs en Educación.

Hace años que nos mostró un prototipo a mitad de camino entre el Kindle y la iPad. Nadie supo qué hacer con su propuesta. La industria demasiado inflexible y el sistema educativo impermeable hicieron que las preguntas de Alan Kay siguieran esperando una respuesta durante largo tiempo. Tal vez llegó la hora de ensayar alguna, antes de seguir perdiendo públicos.

¿Quién recuerda a Alan Kay?

Anuncios
13
Mar
11

¿Qué sabe hacer JOBS que ENGELBART no supo?

Douglas entró decidido al Centro de Convenciones de San Francisco. Se dirigió al auditorio. El público estaba sentado. Las luces enfocaban un pupitre. Le pusieron una bincha con auriculares y micrófono, igual a las que hoy se usan corrientemente. No parecida, igual. Camisa blanca, corbata apretada, nudo al centro. Douglas había medido cada paso, cada palabra sin haber estado allí y sin haber dado un discurso similar. Lo había imaginado decenas de veces. Era el 9 de diciembre de 1968. Había llegado la hora. Hubiera preferido que las máquinas hablaran. Pero las luces, de repente, lo convirtieron a él en el protagonista. El misterio duró algunos pocos minutos, hasta que Douglas Engelbart, a quien seguramente ya conoce o acerca de quien ya escuchó hablar, comenzó a mostrar en una pantalla lo que quería compartir.

90 minutos duró la presentación. Engelbart, junto a su equipo del Augmentation Research Center (ARC) en el Instituto de Investigación de Stanford, había preparado una exposición que resultaría impactante, al límite de lo que podían asimilar los casi 2000 participantes al Fall Joint Computer Conference. Los que estaban acostumbrados a echar frecuentemente una mirada al futuro, nunca habían visto tan lejos.

La presentación de Engelbart fue apasionante. Tal vez, la primera vez que se hablaba en público de control de dispositivos y de interfaz, se demostraba el funcionamiento de un mouse, se explicaba el misterio de las relaciones entre palabras y documentos mediante un link, se veía cómo producir texto en tiempo real y cómo trabajar con múltiples ventanas simultáneamente. El evento pasó a la historia como La madre de todas las demo.

Mucho antes de convertirse en el líder del grupo de Stanford, Engelbart había sido operador de radar durante la Segunda Guerra Mundial. Más tarde, había trabajado en la red militar ARPANET, precursora de Internet. Con su grupo de investigación en Stanford, conceptualizó la interactividad con las primeras interfaces gráficas y el hipertexto, desarrolló también el concepto “en línea” y comenzó a analizar sus aplicaciones organizacionales, el groupware y el impacto del trabajo colaborativo en red.

Durante toda su vida de investigador, obsesivamente, enfrentó una sola pregunta: ¿Qué herramientas son necesarias para fortalecer la inteligencia colectiva de la mayoría de las personas en la aplicación a la resolución de problemas comunes y a los mayores desafíos colectivos?

Engelbart nunca trabajó para ensanchar la brecha, sino para acortarla. Siempre quiso aportarle algo a la mayoría. Si las interfaces eran más amigables, eso beneficiaría a todos, los más próximos y automotivados, tanto los que adoptan tempranamente toda tecnología novedosa como aquellos que carecen de los conocimientos necesarios o destrezas para hacerlo, aquellas personas que saben mucho puestas en red con aquellas que saben menos, aquellas que ya resolvieron problemas similares en contacto con las que empiezan a descubrirlo.

Pero sus ideas nunca pudieron ser traducidas en proyectos industriales. Experimentó mucho, y mucho antes de lo debido. Apenas diez años después de la presentación de San Francisco, su laboratorio cerró las puertas por falta de presupuesto. Era demasiado temprano. Su forma de ver y experimentar la relación de las personas con las máquinas no era compatible con lo que el mercado esperaba. La computación personal no existía como proyecto industrial. Apenas estaba naciendo Apple y la mayoría de los que hoy todavía  son considerados nuevos jugadores, no habían visto la luz. Decepcionado, entregó la llave en la administración y se marchó. Pasó por Tymshare, la compañía que adquirió numerosos derechos sobre lo producido en el laboratorio. Y finalmente, en 1988, del brazo de su hija Christina, creó Bootstrap Institute, que actualmente funciona bajo el nombre de Doug Engelbart Institute.

Aunque recibió todos los honores y premios más importantes (MIT-Lemelson Prize, Turing Award, 2000 National Medal of Technology y Ben Franklin Award, entre muchos otros), Engelbart, considerado el precursor en materia de control de dispositivos de interfaz y el inventor del Mouse, jamás recibió un dólar por sus ideas.

El Instituto de Investigación de Stanford había conseguido patentar en 1970 “un indicador de la posición X-Y para un sistema con pantalla” sobre la base de un prototipo funcionando bajo una carcasa de madera y dos ruedas de metal. Informalmente lo apodaron “ratón” por el cable que salía de la caja en forma de cola. Nadie por entonces pensaba lo que significaría para la experiencia humana con computadoras. Sin embargo, Apple, creada en 1976 obtuvo pronto la licencia por alrededor de 40.000 dólares, solamente.

La revolución inconclusa tiene sus adeptos. Son miles los que intentan aun dar respuesta a la pregunta que inspiró los trabajos de Engelbart. Con las mismas hipótesis aun trabajan miles de investigadores alrededor del mundo. La propia Stanford hace más de una década que le rinde homenaje. Uno de los más interesantes eventos se realizó en 2000 y llevó como nombre Engelbart’s Unfinished Revolution Colloquium.

Es difícil sacar conclusiones. Aun así, el título del artículo de Robert Cringely publicado en su columna semanal en la PBS en 2004 me parece de lo más acertado: Out of School: Doug Engelbart’s Experience Shows That Even the Best Technology Can Be Ignored If It Is Difficult to Classify.”

¿Qué más sabe hacer Jobs que Engelbart no supo?

09
Ago
10

el libro a cinco años vista: encuesta de opinión

El futuro de las industrias de contenidos sigue buscando su presente, los protagonistas de hoy capaces de navegar en la incerteza interpretando los escasos mapas provisionales que hay a disposición. Evaluar horizontes a dos, tres o cinco años vista, crear escenarios y elaborar roadmaps nunca ha sido tan riesgoso como ahora. Distinguir entre las mil novedades diarias la tendencia que soportará los avatares por venir, exige métodos prospectivos cada vez más eficientes. En términos de consumo cultural, el problema se amplifica y la visión particular, aislada, propia, es cada vez más miope. Por eso, es necesario acentuar los esfuerzos por entender más allá de los límites de nuestra mirada.

En el marco de una línea de investigación acerca del futuro del libro, realizamos una encuesta de opinión entre editores, distribuidores y libreros [1]. En síntesis, los principales resultados obtenidos son los siguientes:

1. Escenario digital: La posición frente al escenario digital tiende a ser positiva. Sólo 10% respondieron que era “negativa” o “muy negativa”, mientras que los que tienen una posición “positiva” y “muy positiva” representan 45%, un porcentaje igual al que representan los expectantes.

2. Barreras: La principal barrera[2] que los editores enfrentan para desarrollar el negocio del ebook reside en que el fondo editorial no está en condiciones de integrarse a la oferta porque “no está digitalizado” (20%). Uno de cada siete afirma no conocer lo suficiente cómo funciona el negocio digital (14%).

3. Influencia de los ebooks: 4/10 consideran que los ebooks ya influyen o están próximos a influir en su actividad. Entre los que creen que “ya comenzaron” a tener impacto en su actividad, más del 50% considera que la influencia data de al menos 1 año. 

4. Acciones concretas:

a) Frente al nuevo escenario, los editores han pasado de la reflexión a la acción. Las principales acciones que están tomando son la digitalización de los fondos editoriales (15%), la capacitación (14%), el diseño de una estrategia propia (13%), la renegociación de los derechos (digitales) con los autores (12%), la investigación de la opinión de los clientes (11%).

b) 7% está produciendo o comenzando a producir ebooks.

c) 5% está comercializando ebooks a través de una plataforma de terceros (p.e., Amazon.com, Todoebook.com, etc.) y 5% lo hace de manera directa o estaba próximo a hacerlo utilizando una plataforma propia.

5. Qué aportan los ebooks al negocio: 38% respondió que la principal ventaja de los ebooks era llegar a otros públicos y 30% que le permite ampliar la oferta. Sólo 1/4 opinó que no tiene ninguna ventaja para su actividad.

6. Plataformas de comercialización de ebooks: 37% no sabe qué sistema utilizará para comercializar ebooks. 32% lo harían a través de una plataforma propia. En caso de que lo hicieran a través de una plataforma de terceros, sólo 2% pudo precisar cuál sería. Solo 14% afirmó que no venderá eBooks en los próximos dos años.

7. Evolución del mercado de los ebooks: 7/10 opinan que en los próximos años los ebooks representarán entre 10 y 30% de las ventas. Los que opinan que se venderán 90% de libros impresos y 10% en formatos digitales (36%) son casi la misma cantidad (35%) que los que piensan que la distribución será de 70%-30%. 

8. Pricing: Para la mayoría (54%), el precio de los ebooks debe ser al menos 30% inferior al precio del libro impreso. 36% opinó que debe ser entre 20% y 30% inferior. Sólo 17% opinó que debe ser igual al precio de la versión impresa.

9. Soportes de lectura: Los dispositivos móviles (netbooks/notebooks, iPad y similares, ereaders, teléfonos celulares) serán predominantes como soporte de lectura para el 88% de los encuestados. Las netbooks y notebooks son los dispositivos que más se usarán para la lectura de ebooks (36%). La opción menos elegida fue la “computadora de escritorio” (11%). 75% respondió que el precio de los dispositivos dedicados (ereaders) debe ser inferior a los 400 pesos (<100 dólares) para que los consumidores/lectores los compren.

10. Los nuevos jugadores: GoogleEditions tiende a ganar adeptos. Más de 40% de los encuestados dijo que “escuchó hablar de GoogleEditions”. De entre ellos, 54% tiene una opinión positiva. Entre las estrategias de los nuevos jugadores, son las acciones de Google (12%) las que más pueden influir en el negocio, seguidas de lejos por “las estrategias de Apple [iPad + iBookstore análoga a iTunes]” (5%) y de Amazon (4%).

11. Factores de cambio: Para 4/10, el factor que más influirá en la evolución del consumo de libros y en las prácticas de la lectura será “la llegada de nuevas generaciones de lectores más próximas a la lectura digital” (42%), seguido de “la entrega masiva de computadoras entre los alumnos de primaria y secundaria” (19%).

Los resultados detallados pueden ser consultados aquí. Y ante culquier duda, puede escribirme a roberto.igarza@gmail.com.

—————————————————————————————

[1] Sobre la encuesta

La encuesta se realizó entre editores, distribuidores, libreros e invitados especiales (funcionarios de gobierno, prestadores de servicios) que participaron de las jornadas de profesionales de la Feria Internacional del Libro de Buenos Aires 2010. El relevamiento se realizó los días 21, 22 y 23 de abril de 2010, es decir, los días antes de la apertura al público en los que la Feria estuvo exclusivamente a disposición de los profesionales para el intercambio de información y el desarrollo de negocios. La muestra, compuesta de 247 respuestas válidas, puede ser considerada representativa del sector en términos globales. La participación relativa de los diferentes subsectores que componen la cadena de valor del libro también puede considerarse representativa si se tiene en cuenta cómo se distribuyen los actores sociales del sector en la Argentina. Los editores representaron 44% del total de los encuestados, los libreros 35% , los distribuidores 18%. Los invitados, los prestadores de servicios y funcionarios públicos representaron 3% del universo encuestado. Casi dos terceras partes de las personas encuestadas pertenecían a organizaciones argentinas (64% nacionales, 3% mixtas o empresas filiales). Para un mayor conocimiento del perfil de las editoriales, se preguntó a los editores encuestados acerca del volumen de la tirada promedio de las novedades en el momento de su lanzamiento. Las editoriales con tiradas promedio inferiores a 3000 ejemplares representaron 61% de los encuestados. La primera minoría la representaban las que tenían una tirada promedio inferior a los 1500 ejemplares (33%), seguida del grupo con tiradas entre 1500 y 3000 ejemplares (28%) y las de 3000 a 5000 (23%). Las editoriales que tiraban entre 5000 y 10.000 ejemplares representaban la misma cantidad (8%) que las editoriales con tiradas superiores a los 10.000 ejemplares.

[2] Podían responder hasta tres opciones entre las que se especificaban.

04
Ago
10

¿Todo por 2 pesos? Sakshat, la máquina 6C

Sakshat es la máquina que el gobierno indio acaba de promocionar al rango de estrella universal. No es para menos, Sakshat cuesta 35 dólares! La noticia tuvo una gran difusión. Yo también me dediqué a ello, comenzando por un post sobre la commoditización de las tecnologías en la era de la nube y siguiendo por una opinión contextualizada acerca de su lanzamiento con una puesta en perspectiva del rol que juegan los países emergentes en la commoditización de las tecnologías.

Hace pocos meses, había escrito un informe ebooks: Hacia una estrategia digital del sector editorial en el que presentaba la hipótesis de que serían los países emergentes los que demostrarían pronto que es posible producir para ciertas condiciones de uso, la educativa en particular, dispositivos móviles de bajo costo, inferiores incluso a los 100 dólares. Y que cuando eso fuese una realidad se produciría un verdadero cambio de paradigma y un salto cuali-cuantiativo en las formas de consumir contenidos, especialmente, libros.   

La novedad que nos aporta Sakshat es doble. Por una parte, reside obviamente en que sería posible producir una tarjeta madre (motherboard) que integre procesador y conectividad local y remota a bajo costo, es decir, que tenga un precio de venta inferior a 100 dólares, algo que los diseñadores comerciales como HP vienen ensayando hace tiempo. Por otra parte, se trata de integrar por primera vez en una máquina la nueva cadena de valor completa: Cloud-PCTablet-OpenSoftware-LowPowerConsumption. En otros términos, está iniciativa tecnológica fundada en la trilogía acceso-igualdad-calidad, es la primera que integra seis conceptos en una máquina, un metaconcepto:

1)      el concepto ultramóvil en formato de tableta (imitando a Apple), con todo lo que ello implica, tanto del punto de vista ergonómico (peso de 400 gramos, pantalla de 7”) como de la interfaz (pantalla táctil);

2)      el concepto software abierto que integra Linux que en algunos casos podría llevar Android o Chrome, y un sistema de Open Office;

3)      el concepto bajo consumo energético que supone un consumo reducido de funcionamiento que no supera los 2 watts y que se completa con una fuente de energía solar para las situaciones extremas de escasez de energía eléctrica;

4)      el concepto conectividad abierta y permanente que integra tecnología blanda (navegador) y tecnología dura para conectarse a las redes (Wi-Fi);

5)      el concepto nube que evita el dispositivo de almacenamiento local (no tiene disco rígido, sí una salida USB para conectar una tarjeta de memoria externa) lo que permite disminuir significativamente el peso, y estimular el trabajo colaborativo (videoconferencing facility) trasladando a la nube la producción y distribución de conocimiento;

6)      el concepto de masividad, es decir, producido para millones de personas con costos asequibles, que hoy serían de 35 dólares subsidiados a mitad por el gobierno indio, pero que, según esperan algunos expertos indios, podrían aun reducirse hasta perforar los 20 o incluso los 10 dólares.

La máquina 6C ya tiene sus detractores. Ellos son los que dicen:

  • Linux no es para todos, es menos seguro y exige más conocimientos técnicos. A ellos les digo que esto pudo haber sido así hasta poco tiempo atrás, pero la diferencia en la (in)seguridad y en los conocimientos que el usuario debe tener entre Linux y los productos de Microsoft, no es tan grande como la diferencia que separa lo gratuito de lo pago.
  • El hardware y el software demorarán en estabilizarse lo que requerirá más soporte técnico. A ellos les digo que, siendo verdad que toda tecnología necesita madurar y mientras tanto requiere un soporte que es en definitiva un costo encubierto, el período de estabilización será menor de lo pensado porque India cuenta con la experticia en el desarrollo de tecnologías blandas a gran escala (es factoría de un gran número de productores de software líderes) y con una gran cantidad de usuarios (más de 100 millones), la fuente indispensable para detectar e introducir rápidamente las mejoras necesarias.
  • La conectividad no podrá ser efectiva porque las instituciones educativas no tienen las instalaciones adecuadas ni las redes en el país funcionan para soportar esa carga. Tienen razón mientras no se ejecuten los programas de inversión que tiene planificado hacer India para proveer de accesos a las escuelas y universidades. Si se confía en que los planes se cumplirán a medias, la conectividad impactará en la vida de al menos 50 millones de personas de las 100 millones que pretenden alcanzar, personas que hasta el momento no tenían ningún acceso.
  • Es escasa la memoria (sólo tendrá 256 Mbytes de RAM y la posibilidad de tarjetas de memoria adicionales de 2G en una versión básica) para el procesamiento de la mayoría de las tareas universitarias, aunque no todas, lo que implicará recurrir incesantemente a la “nube”. Les doy la razón por ahora, hasta conocer más acerca de cuánto el ahorro en capacidades de almacenamiento puede cooperar en subsidiar la conectividad y los servicios en la nube.
  • Se desconoce cuál es el tipo de procesador, lo que eleva el nivel de sospecha respecto de quién estará en condiciones de producirlo y de qué funcionalidades puede garantizar. Es verdad lo que dicen, tan verdad que ni Wikipedia puede informar a este respecto!? Algunos aseveran, a pesar de que el comunicado del gobierno indio no lo informa, que se trata de un procesador Arm de aproximadamente 1Ghz, que como vimos en un post anterior, se trata de procesadores especialmente competitivos para el mercado de los ultramóviles: los procesadores están en los Kindles, en los smartphones y en las netbooks. El punto más difícil de resolver y del que hablamos desde el inicio es el procesador. Según el ministro de Desarrollo de Recursos Humanos Kapil Sibal ya han superado todas las etapas de la conceptualización y los “pilotos” han superado las pruebas necesarias para pasar a la producción masiva, lo que informa acerca de que “el problema” estaría resuelto, pero el camino elegido es un secreto guardado bajo siete llaves.
  • Los contenidos que reproduce responden a una naturaleza (pdfs enriquecidos y videos) muy demandante de recursos hardware y software. En otros términos, podría caber la duda de si será posible explotar esos contenidos en dispositivos de esta “inversión tecnológica”. Para responder habría que responder antes a todas las preguntas anteriores. Simplemente no lo sé, no es que lo pongo en duda.

El planteamiento hecho por el gobierno de la India no es algo aislado. Hace más de un año que China comenzó un programa similar vinculado con la distribución de contenidos digitales para la lectura en ereaders “clonados”, lo que me llevó, en su momento, a hablar de efecto mariposa china sobre los precios de las tecnologías. Que China o India produzcan millones de ejemplares de este tipo de dispositivos modificará las reglas del mercado y las reglas que pautaban la commoditización de las tecnologías. 

Entre los grandes jugadores globales, las iniciativas se multiplican en la era de la integración vertical. En la telefonía móvil, lo intenta Google con NexusOne y, tal vez, lo intente en el mercado de las TabletPCs. En el mercado de las netbooks, así como INTEL, líder mundial de procesadores, lo ha hecho con su Classmate, Marvell, que sabe mucho de tecnologías económicas, ha anunciado en marzo sus intenciones de convertirse en proveedora de netbooks con finalidad educativa y son mas que rumores los que circulan acerca de su mayor acercamiento a OLPC. La organización One Laptop Per Child, pionera en el diseño e implementación de equipos de bajo costo para programas educativos, también lanzó un plan para la producción de un nuevo dispositivo basado en el concepto tablet PC para 2012, cuyo costo sería del orden de 75 dólares.

La commoditización beneficia evidentemente a los usuarios. El resultado está a la vista y lo estará más aun. Aunque la relación es menos directa y más compleja de lo que se admite, con la introducción de este nuevo 6C, sus usuarios tendrán más oportunidades de conocer y de integrarse social y laboralmente. También está claro que 6 conceptos en una sola máquina es un record! Nadie había logrado tanto antes de esta iniciativa. Lo intentó Negroponte con el proyecto OLPC, que tenía casi todo incluyendo el bajo consumo de energía, y no lo logró porque le faltó la “nube” y la ergonomía de una TabletPC en la que ahora pone énfasis.

No lo consiguió Microsoft en su momento, ni Apple más tarde, porque sus precios estaban hechos para que no fuese masivo. No lo consigue Amazon, al menos, no aun, a pesar de que va camino a los 100 dólares con un dispositivo más pequeño y más liviano que consume mucho menos energía (la batería soporta un mes de consumo promedio).  

Si por un momento nos detenemos en los grandes jugadores globales, ¿a quién beneficia este intenso movimiento? Si estas estrategias de los países emergentes continua, ¿quién gana y quién pierde? ¿Google, Amazon, Adobe, Apple, los ISP, Qualcomm, CISCO, Intel, Microsoft…? Lo que está sucediendo es un claro llamado de atención. Sakshat puede demostrar que es factible una nueva cadena de valor Cloud-PCTablet-OpenSoftware-LowPowerChina e India, ya habían advertido antes.

China e India, tal vez pronto Brasil, nos están demostrando cómo se integra la nueva cadena de valor digital. El que quiere oir que oiga. Y si alguien se inquieta aun por saber acerca de los consumidores, la respuesta es sencilla: ponga el precio adecuado y verá. Este movimiento necesita jugadores fuertes en las industrias de contenidos. ¿Quién se hace cargo? La respuesta será tema de una próxima conversación.

01
Ago
10

Todo por 1500 rupias: El efecto de la mariposa india sobre la commoditización

Algunos países emergentes han aprendido más rápido que otros acerca de cómo funciona el fenómeno de la commoditización de las tecnologías y sus límites. Tanto China como India, tanto la gran factoría de bienes tangibles como la gran proveedora de servicios, sobre todo, de líneas de código informático, saben mejor que los demás miembros de la comunidad de emergentes cómo funciona el sistema de fijación de precios a nivel mundial y demuestran cada vez más la capacidad para operar sobre esa realidad.

Ambos países han hecho crecer su middle class de manera impensable hace nada más que una década atrás. Aunque el consumo interno actual no les alcanza en lo más mínimo para hacer sostenible a largo plazo su elevada tasa de crecimiento de los últimos años, el mercado local se ha ampliado lo suficiente para dejar entrever qué ocurriría con los precios de ciertos bienes tangibles e intangibles si existiese en esos países una clase media mayoritaria.

Los BRICs, pero sobre todo India y China, experimentan a diario los límites de la commoditización. Cada vez que enfrentan el desafío de hacer masivo lo que solo es popular entre segmentos muy estrechos de su población, expanden con creciente eficacia las fronteras invisibles de la commoditización hasta dónde los precios mínimos de ciertas tecnologías les permiten avanzar.

Los países emergentes, ávidos de responder al reclamo de millones de personas que desean mejorar su calidad de vida y engrosar las filas de consumidores de los países avanzados, asumen que optimizar recursos en materia de difusión masiva de las TICs requiere esfuerzos en cuatro dimensiones:

1)      Introducir inteligencia “propia” en las máquinas, esto es tecnologías blandas, software, que la mayoría sino todos ellos han venido desarrollando para los países desarrollados. No sólo los BRICs, también Argentina, Nueva Zelanda y Paquistán, entre varios otros, son capaces de escribir código informático de alta performance a precios razonables.

2)      Detectar el hardware diseñado en el extranjero que puede ser reemplazado por una fabricación in housing y hasta introducir algo de “inteligencia de diseño” local para optimizar los recursos en función de su mercado y de sus consumidores (ver el modelo de INTEL en los proyectos de netbooks dónde el partner local puede customizar hasta un 49% de la máquina, según los acuerdos). Si bien China es quien más ha evolucionado en sus capacidades para hacerlo, desde que el “design by” trasladó el “made in” por doquier, desde que California le enseñó sus estrategias de creatividad a medio mundo, las capacidades de apropiación de los países emergentes ha superado cualquier expectativa de escenario futuro que podían tener los países más tecnológicamente desarrollados. Es verdad que China solo obtuvo 4 de sus Nobles desde 1957 y que India ganó la mitad de sus ocho premios antes de la independencia y Rusia 4 de los 23 desde que la URSS dejó de existir. De hecho, China registra anualmente apenas la cuarta parte de las patentes que registra Japón y el tercio de lo que registra EE.UU. Sin embargo, las patentes chinas crecieron casi 4 veces en 5 años, camino a tener un 8% del total de las patentes registradas, lo que la posiciona ya por arriba de varios países occidentales, incluso supera la creatividad alemana. Lo cierto es que nadie creía en que, si bien la inteligencia distribuida seguiría teniendo sus centros privilegiados, el mundo concreto se haría tan plano tan rápidamente.

3)      La educación superior y la investigación son dos condiciones básicas sin las cuales es imposible hacer sostenible el crecimiento de las clases media. La transferencia de conocimiento, la percolación de los saberes y la movilidad social están estrechamente relacionados. Si esas condiciones no se cumplen, no habrá ni investigadores para mejorar lo que todos ya saben copiar, ni mano de obra para producir con mayor valor agregado y calidad. 

4)      La matriz cultural “plural y democrática” ejerce un rol dominante entre las formas de convivencia que adoptan las sociedades para alcanzar niveles de cohesión social sustentables. Para muchas sociedades, el resultado de este proceso es, a la vez, cultural, religioso y políticamente disruptivo. Imaginemos este fenómeno en China, India o, aun más cerca, en Brasil. En términos de consumo, el resultado esperable es una clase media en expansión y, con el consecuente mercado local fortalecido, una espiral de los ciclos innovativo-productivos que se retroalimenta y hace que su economía sea sustentable porque es capaz de integrarse en el mercado global competitivamente.

En el promedio de las cuatro dimensiones, India es favorita. Cumple con 10 puntos la primera de ellas porque ya no tiene nada que demostrar acerca de sus capacidades de producir tecnologías blandas. Tiene un excelente promedio en la segunda. Sabe producir “en casa” y a gran escala, agregando valor, agrgando  inteligencia de diseño local. En la tercera, sin liderar, su crecimiento gracias a tres factores: i) los millones de emigrantes inmersos en economías altamente creativas en posiciones de creciente influencia; ii) el vector idiomático como principal puerta de acceso a un conocimiento que se produce y distribuye preferente y masivamente en inglés; iii) una tasa creciente de inversión en infraestructura básica y tecnológica en las escuelas y universidades. Y en cuanto a la cuarta, una matriz socio-cultural plural y políticamente democrática, es evidente que vive un proceso aletargado por milenarias prácticas de segmentación social cuyas fundaciones filosóficas son prácticamente inalcanzables para las capacidades de comprensión occidental, lo que la posiciona en un nivel menos destacado, aunque tampoco desaprueba. ¡Es la mayor democracia del mundo en términos poblacionales! No sabremos nunca qué hubiera ocurrido si antes no hubiese sido colonia. Pero por el momento, su democracia ya cumplió cinco décadas.

Algunos creen que las capacidades de estos países se sustenta todavía en los bajos costos salariales. Según esta línea de pensamiento, que se trate de TICs, cultivos o pantalones, la ecuación evidencia que los salarios son determinantes en su “competitividad”. Para otros es necesario asumir que, en materia de tecnologías duras, la incidencia del costo salarial por unidad producida es muy bajo. En mi opinión, en tecnologías blandas, la brecha de competitividad a favor de los emergentes es muy superior. India es desde hace más de tres décadas es el primer exportador (volumen de bits) del mundo de líneas de código informático. En cuanto a bienes tangibles, ya demostró que no es la Alemania comunista de la era soviética produciendo los Trabant, un automóvil barato, contaminante y de paupérrima performance. Es cuestión de ver las versiones actuales de los autos chinos para entender que la evolución que llevó tres décadas a las automotrices japonesas, solo le llevó una a la industria china o coreana, mucho más rápidas y flexibles a la hora de integrarse al mundo que lo fue la japonesa, sin embargo, mucho más avanzada tecnológicamente. Aprender y mejorar es un ciclo iterativo que los emergentes saben cómo optimizar mejor que los demás.

India es ya una gran potencia y, como tal, acomoda su clase media entre las poblaciones que consumen de todo y, especialmente, TICs. Durante 2010, se venderán 62 millones de PCs en India y las proyecciones afirman que las ventas anuales crecerán, al menos, hasta 2013 perforando el techo de los 100 millones al año. En el primer trimestre de 2010 respecto de igual período del año pasado, el crecimiento de ventas de netbooks fue de 72%. Una parte creciente de esa producción es india, la totalidad (100%) es asiática. Asia consume cada vez más exportando cada vez menos royalties. Asia reemplaza fabricación y diseño. Los países de Asia saben que las TICs, en sentido muy amplio, desde la mecatrónica hasta en la bioingeniería, son el motor de su próxima etapa de desarrollo. Las TICs aumentan el valor agregado de sus productos, son las TICs las que aumentan la competitividad de sus empresas, son las TICs las que posicionan sus universidades entre las mejores.

El gobierno de la India ha demostrado que tiene más que una intención acerca de producir bienes que sean asequibles para los segmentos de consumo medio y bajo, como parte de un plan de ensanchamiento de las clases media. El año pasado vimos cómo Tata, el gran conglomerado indio que crece en América Latina a pasos agigantados, era capaz de cumplir con sus promesas. Logró fabricar el vehículo automotor más económico del mundo. El Nano se produce con un precio final de dos mil dólares.  También sabemos que desde hace unos años, el balance global de la prensa gráfica (diarios) solo es positivo si se suman los resultados de la prensa gratuita y la aparición de nuevos títulos y el aumento de la tirada de los periódicos destinados a las clases media de los países emergentes. India va a la cabeza de ese fenómeno fruto, entre otros factores, de vivir bajo un régimen “democrático” que permite el surgimiento de nuevas empresas de medios y de nuevos medios impresos.

El fenómeno del saber-hacer globalizado ya no tiene límites. El teléfono móvil, la tecnología más exitosa de la historia en cuanto a rapidez de penetración social, ha demostrado que es posible pensar de otra forma, desde otro lugar, desde el servicio y no desde la tecnología. Así como el teléfono móvil ya está al alcance de una amplia mayoría de la población mundial, es hora de que las computadoras lleguen a todos o casi todos. La computadora portátil más barata del mundo ha sido diseñada y desarrollada por equipos de investigación de algunas de las principales instituciones universitarias de India. De lejos y de cerca se parece bastante al iPad y a otros ereaders, a los dispositivos que fueron diseñados por Apple, Sony y otros líderes y fabricados en China en millones de ejemplares.

Esta nueva TabletaPC fue diseñada con la mirada puesta en el sector educativo, como parte del programa gubernamental National Mission on Education through ICT (NMEICT), una ambiciosa iniciativa que tiene como objetivo, además, brindar conectividad a 25.000 colleges y 500 universidades y se asocia al National Programme on Technology Enhanced Learning (NPTEL), que reúne 500 sitios y portales educativos para promover el estudio con contenidos digitales. 

Según las fuentes consultadas, India ya invierte varios puntos de su presupuesto anual en educación, porcentaje que para algunos analistas empieza a ser competitivo con los países identificados como líderes en la materia, pero que solo será efectivo si es sostenible a largo plazo. Dos factores son determinantes: el potencial crecimiento sociodemográfico y la paupérrima infraestructura escolar. El primero implica incluir a millones de personas más cada año dado que el crecimiento sociodemográfico es más regulado por condiciones sociales y culturales que políticas, como es el caso de China. El segundo, la infraestructura escolar, se encuentra en un estado de partida francamente bajo: las escuelas primarias con baños comunes dentro del establecimiento es inferior al 70% y los que tienen baños separados (H-M) son apenas poco más de la mitad. Claro que las tasas de mejora son altísimas. Las primarias que tienen baños separados son el doble de hace 5 años. En el mismo período, la tasa de escuelas con acceso a agua potable aumento 10% y ya alcanza el 88%.

La realidad social de la India no cambiará tan rápido como sí puede hacerlo la tasa de penetración de las computadoras en las escuelas. Hoy, menos del 15% de los establecimientos primarios tienen computadoras bajo modalidades muy diferentes, como laboratorios fijos y móviles. Es esperable y probable que esa tasa se duplique en los próximos tres años, esto era el pronóstico antes de la llegada de Sakshat. La tabletPC a 35 dólares! puede cambiar muchas cosas más rápido de lo pensado y, sobre todo, mantener viva la idea de que es posible un salto disruptivo en favor de muchos lo que, finalmente, equivale a decir “en favor de todos”.

30
Jul
10

Todo x 10 dólares: acerca de la commoditización de las tecnologías

Los nuevos mercados están por las nubes

Que las tecnologías tienden a commoditizarse más rápido que los contenidos es un principio conocido y de aplicación casi universal. Que la commoditización deriva en precios más asequibles para una amplia franja de la población es una consecuencia natural. Que cuando los precios entran en una fase de pronunciado descenso, su estabilización asintótica solo se alcanza por el costo de ciertos componentes como el procesador o el disco rígido, es una evidencia de que existen jugadores ineluctables cuyos productos definen la evolución del mercado.

Los diseñadores de insumos que son centrales en las prestaciones que ofrece la máquina, no actúan como fijadores de precios. Es imposible que alguien pueda, salvo en ciertos nichos muy particulares, convertirse en fijador de precios y menos de un precio único, aun después de la ola de compras y fusiones que hemos vivido en las últimas dos décadas. Más en el ámbito de los portátiles, dónde existen jugadores muy potenciados por sus éxitos en la telefonía móvil. Entre los muchos capaces de competir en las comunicaciones móviles destacan Qualcomm con SnapDragon, Marvell con la serie Armada, NVIDIA con Tegra, Texas Instruments con OMAP y ARM con su serie Clásica y Cortex.

Algunos jugadores más que otros, ya sea por el share que ocupan en el mercado o por situarse abajo en la pirámide de precios, tienen la capacidad de actuar como “estabilizadores de precios mínimos”. La competencia por el sector (ultra)móvil ha estimulado el mercado. Los procesadores Atom de INTEL comprado en miles de unidades ronda los 40 dólares. Y ya existen numerosos procesadores que no superan los 20 dólares.

A diferencia de los discos rígidos que pueden ser suplantados con cierta efectividad (peso/unidad de volumen almacenado) por otro tipo de dispositivos de almacenamiento como las memorias flash, que son indispensables si se trata de optimizar el peso pensando en la movilidad, los procesadores, es decir, el componente más valioso del equipo, no puede ser evitado! Los dispositivos pueden ceder la función de “almacenamiento” a un servidor en la “nube”, pero siempre deberá contar con un procesador. La función “procesamiento” no puede cederse completamente. Por el contrario, más la plataforma es convergente, más polivalencia, más capacidad de simultaneidad (múltiples niveles de procesadores) en la explotación de contenidos se requiere, más los contenidos son de naturaleza audiovisual, más el usuario está hiperconectado, más el procesador es indispensable.

Ambos tipos de insumos, discos rígidos y procesador, actúan como determinantes de los precios mínimos. Si todas las tecnologías se commoditizan, esas dos sufren menos el proceso y, al mismo tiempo y como consecuencia natural, sostienen los precios mínimos de la tecnología final, el dispositivo, que de esa forma evita aproximarse al valor teórico cero. En otros términos, si no fuese por el costo del procesador y de los dispositivos de almacenamiento, los precios alcanzarían nuevos mínimos inimaginables hoy por hoy.

El mercado de las TICs sigue gobernado por grandes líderes globales,  aunque con variantes significativas respecto de lo que fue. Por ejemplo, la alianza WINTEL, INTEL+Microsoft, la principal desarrolladora del mercado global de las PCs, sin dejar de existir, ya no funciona de la misma manera que antes.  

“The shift to mobile computing and data centres (also known as “cloud computing”) has speeded up the “verticalisation” of the IT industry. Imagine that the industry is a stack of pancakes, each representing a “layer” of technology: chips, hardware, operating systems, applications. Microsoft, Intel and other IT giants have long focused on one or two layers of the stack. But now firms are becoming more vertically integrated. For these new forms of computing to work well, the different layers must be closely intertwined. […] As the Wintel pair splits, computing will start to look different. Instead of being dominated by two monopolists, the market will be fought over by eight or nine more or less vertically integrated giants. Oracle, Cisco and IBM will vie for corporate customers; Apple and Google will scramble for individuals (see table). IT, like the world, is becoming multipolar.”

De los dos principales jugadores nacidos en la era de la computación personal, Intel y Microsoft, el primero parece haber acentuado su capacidad de influir. Es verdad que al segundo se le oponen gobiernos, jueces y una clara tendencia hacia el software libre, al mismo tiempo que sufre los efectos de la piratería. El primero, mientras tanto, se beneficia de su perfil mucho más bajo. El usuario no percibe “Intel Inside” de la misma forma que percibe “Windows” de Microsoft, una imagen penetrante que emerge, al menos, cada vez que enciende la máquina. Las personas no reconocen o parecen olvidar la presencia del procesador cada vez que operan con la máquina. Tal vez se deba a un fenómeno de comunicación, o simplemente a que el procesador se ha transformado en la prolongación “natural” del poder humano de inteligencia. Como no está pensando en “su propio procesador”, como no es necesario pensar en lo obvio, en aquello que le permite pensar, tampoco es interesante pensar en aquello que lo subsidia: el procesador de la máquina.

El procesador siempre está allí, en todo lo que el usuario hace con la máquina. Sin embargo, la relativa (in)visibilidad que ha conseguido le favorece y mucho cuando de lo que se trata es de experimentar la relación con humanos que tienden a convivir en una cultura 2.0, una era en la que las personas aprecian más la colaboración y el compartir. Por otra, y no es poca cosa, el hardware corre con la ventaja de ser tangible y lo tangible es mucho menos susceptible de ser copiado o pirateado que las tecnologías blandas. Ningún potencial ingreso ($) se pierde en el entramado ilegal sino es por el espionaje industrial (ver los últimos conflictos entre INTEL y AMD). Y cuando éste existe, los resultados recaen, sobre todo, en el mismo sector y no en sectores foráneos que monetarizan la ceatividad y la innovación de los líderes. En definitiva, quien espía y copia pertenece al mismo sector que, siendo ya competitivo, alguien podría decir que se “perfecciona” mediante este tipo de trasvasamiento. 

Microsoft no pudo desarrollar tan rápidamente un concepto tecnológico propio (o lo hizo demasiado lentamente para los tiempos que corren) que acompañara la evolución de la red y de los usuarios en la red. Google sí. Google es un nativo de la nube, Microsoft es un inmigrante. Aunque las apariencias simepre engañan un poco, Google se muestra más “cooperativo”, Microsoft más “stand-alone”. Google más abierto, Microsoft más cerrado. Microsoft sabe tanto como Google de trabajar en la red y ambos saben que los nuevos mercados están en la nube.

Siguiendo la iniciativa de Oracle que hace dos décadas ya quería llevar las computadoras personales a un sistema global de networking extrayéndoles de su vientre el disco rígido y compartiendo servidores en alguna red exterior, Google está demostrando que la “nube” (cloud computing) puede ser el factor que modifique sensiblemente la tendencia y cambie las reglas del negocio que supo construir Microsoft a lo largo de tres décadas, incluso en beneficio, parcialmente claro, del propio Microsoft cuando va a la nube.

La “nube” podría ser para el software lo que los átomos son para el hardware. Es la condición que si se cumple, puede aminorar los efectos de la piratería al mismo tiempo que provee a los usuarios, al menos en una primera instancia, una sensación de mayores beneficios, y gratis o casi! En ello, trabajan los conocidos y los menos conocidos, como Cobweb, Rackspace y 1×1. Algunos de ellos ya tienen cerca de 2 millones de usuarios corporativos de servicios cloud. Ya existe un hipermercado de servicios en la nube. Además, la “nube” es emblema de compartir y eso está claramente alineado con la cultura 2.0, con el fenómeno we media, con las nuevas formas de producir (wiki-wiki) y las nuevas formas de acceder y compartir el conocimiento (e-learning).

09
Jul
10

La ciudad, hipertexto y creatividad II

La creatividad en lo cotidiano: otra breve referencia a la obra de MIchel de Certeau

Descubrí Michel de Certeau estudiando en Ginebra. Fue en un pasaje. Primero fue la La Méthode de Morin, una gigantesca metateoría surgida de su encuentro con Jacques Monod y Massimo Piattelli-Palmarini en los debates acerca de “l’Unité de l’Homme”[i]. Fue cuando todavía recorría los pasillos de las bibliotecas ingenieriles buscando “otras formas de entender”. Me asomó a la complejidad, una forma de ayudar a ver, de completar mis creencias y las lecturas matematizadas del mundo construido que aprendía en grandes dosis. Morin me sirvió de puente para romper el aislamiento. En el periplo, descubrí Michel de Certeau y la problematización “de las operaciones de los usuarios, los usos, las maneras y las formas de hacer”, lo que otros llaman simplemente “prácticas”. De su obra, a muchos de mis conocidos no le atrapó La faiblesse de croire (en francés, Ed.Seuil, 1987, en español, se llamó La debilidad de creer, Ed. Katz, 2006). A mi tampoco, todo depende de sus valores y creencias. A otros, les resultó simplemente interesante La toma de la palabra y otros escritos políticos (en español, Ed. Universidad Iberoamericana, 1995). Pero a los que he recomendado la lectura de su obra, su aportación al entendimiento de la vida cotidiana en la urbanidad les ha parecido extraordinaria.  

En La invención de lo cotidiano[ii], Michel de Certeau ofrece la idea de que la ciudad es el espacio en el que las estrategias de los entes de poder, en general, conforman el mapa relacional de influencias e intereses por el que navegan los “hombres ordinarios”, participantes activos que interaccionan y practican diversas tácticas de negociación en los usos mediático-culturales de modo de hacer un uso crecientemente inteligente de los mensajes.

La ciudad es un espacio mediático por definición. Para entender su funcionamiento es indispensable efectuar el pasaje de un análisis de su organización como espacio físico real a uno en el que la problemática principal reside en su caracterización como espacio virtual de conocimiento. La ciudad es una experiencia colectiva definida por sus propios acontecimientos imaginarios. Una wikiciudad, un espacio a descubrir y recorrer, un espacio dinámico que exige una capacidad extendida para detectar y describir sus incesantes metamorfosis y las relaciones que pueden establecerse entre ellas.

Desde esta perspectiva, como señala de Certeau, la ciudad ofrece tantos espacios como experiencias espaciales distintas. Las relaciones, así como los relatos y las experiencias, se crean por y en los trayectos. Existen dos maneras de relacionar los espacios: la relación de continuidad que indica la forma en que se suceden uno tras otro en la secuencia, y la relación de inclusión que apela a la forma en que un espacio incluye otro, por ejemplo, el espacio de ensoñación que incluye un paisaje. A éstas podemos agregar otras formas, por ejemplo, los rituales negociadores, las barreras culturales prejuiciosas, las ofertas de bifurcación. Pero los espacios se relacionan de manera mucho más abstracta, modo que proviene de que, en realidad, el espacio es solo un agregado de relaciones dónde límite y frontera, distancia y proximidad, ya no son conceptos predominantes. En ese sentido, su abordaje no está alejado del «diagrama» de Deleuze, que es mejor descriptor del fenómeno al plantear una articulación abstracta de las relaciones sin tener en cuenta la distancia o proximidad.[iii] Por ejemplo, cuando es una relación de percepción o que nace de una experiencia de vida singular.

De Certeau recupera Choay[iv] en su forma de interpretar el discurso urbano como una triple operación: 1) una organización racional que rechaza todas las contaminaciones físicas, mentales o políticas que pueden afectarla; 2) un conjunto de estrategias científicas, tecnológicas, analíticas, que abastecen al ciudadano de aquello que lo protege de su propia ingeniosidad para apropiarse de las “ocasiones”, para derivar, para hacerse opaco, indisponerse frente al sistema, acomodarse en los nichos de invisibilidad; 3) un modelo político que absorbe todas las funciones, rediseminadas arbitrariamente entre múltiples sujetos reales, individuos y colectivos.

La ciudad es un espacio hipertextual. La ciudad es hipertexto, es web. Como espacio virtual no es finito. El problema esencial es el recorrido. Al mismo tiempo que las páginas proliferan y son incesantes las bifurcaciones ofrecidas que parecen más interesantes que lo que propone el trayecto proyectado, las páginas desaparecen como la ruta que queda detrás, como las rutas del desierto. Para De Certeau sólo cuentan los relatos como instancias móviles y magistrales en materia de delimitación que no deben conformar un sistema que las articula completamente sino que todo recorrido debe aceptar operaciones de manipulación improvisada con el fin de preservar la traza de las prácticas sistemáticas del razonamiento y la anticipación. La sistematización se ve perturbada por cualquier elemento extraño a diferencia del pensamiento asistematizado que es más flexible para integrar el cambio sin sentirse amenazado por las diferencias entre el presupuesto y la realización, lo que favorece el desarrollo de un saber creativo, aquel que no imita el método artístico, sino que articula una diversidad de prácticas de pensamiento exhumadas y no olvidadas por eficiencia de la razonabilidad.

El espacio es para Foucault la expresión de la disciplina, un ejercicio “microfísico” del poder, mientras que para De Certeau, las prácticas cotidianas de los ciudadanos pueden alterar ese significado impositivo. Para el primero, la ciudad es el espacio organizado por el poder que gestiona racionalmente el sistema, mientras que para la anti-disciplina, es el lugar privilegiado para producir y apropiarse de las transformaciones y movimientos contrarios al orden establecido. Las picardías, interrupciones y bifurcaciones que el ciudadano de a pie adopta frente al discurso tan “armónico” como artificial de la ciudad, reconfiguran dinámicamente las capacidades del individuo y de las multitudes abriendo brechas, inmiscuyéndose en las fisuras del sistema, generando espacios dónde no los había, penetrando el inconsciente colectivo en una poesía original, alternando entre pasajes de sumisión y burbujas creativas no dependientes del orden dominante, introspectivas pero a la vez capaces de expandir su poder expresivo al infinito. Un verdadero hormigueo, “un innumerable conjunto de singularidades”[v], “ya no es un campo de operaciones programadas y controladas. […] La ciudad-concepto se degrada. […] Tal vez las ciudades se deterioran al mismo tiempo que los procedimientos que las han organizado. Pero hay que desconfiar de nuestros análisis. Los ministros del conocimiento siempre han supuesto que el universo está amenazado por los cambios que estremecen sus ideologías y sus puestos. Transforman la infelicidad de sus teorías en teorías de la infelicidad. Cuando transforman en “catástrofes” sus extravíos, cuando quieren encerrar al pueblo en el “pánico” de sus discursos, ¿es necesario, una vez más, que tengan razón? Más que mantenerse dentro del campo de un discurso que conserva su privilegio al invertir su contenido (que habla de catástrofe, y ya no de progreso), se puede intentar otra vía: analizar las prácticas microbianas, singulares y plurales, que un sistema urbanístico debería manejar o suprimir y que sobreviven a su decadencia; seguir la pululación de estos procedimientos que, lejos de que los controle o los elimine la administración panóptica, se refuerzan en una ilegitimidad proliferadora, desarrollados e insinuados en las redes de vigilancia, combinados según tácticas ilegibles pero estables al punto de constituir regulaciones cotidianas y creaciones subrepticias que esconden solamente los dispositivos y los discursos, hoy en día desquiciados, de la organización observadora.”[vi]

La ciudad es, a la vez, espacio de un número finito de “propiedades estables, aislables y articuladas unas sobre otras”, y un despropósito disfuncional, anárquico, simbólicamente autónomo, espacio de un número infinito de aberraciones. La ciudad comunicante.[vii] Mientras que el “todo” se presenta como una ruptura suave, como algo promediado, como sujeto administrable, poco de eso ocurre en el detalle. ¿Es lo inestable del discurrir urbano, la hipertextualidad del andar, las incesantes bifurcaciones inesperadas, las interrupciones flashmob, la experiencia wi-fi, lo que hace más co-creativos a los habitantes de las ciudades?


 

[i] Para una breve introducción a esta obra, puede leerse el Prefacio a la versión 2007 en http://www.lamartinieregroupe.com/assets/images/livre/extrait/preface%20OPUS%20Morin.pdf.

[ii] de Certeau, Michel. L’invention du quotidien. Gallimard. Paris, 1990. En español existe una versión publicada por la Universidad Panamericana de 1995.

[iii] Ver Buchanan, Ian & Lambert, Gregg. Deleuze and space. Deleuze connections. Edinburgh University Press. Edinburgh, 2005.

[iv] Choay, F. “Figures d’un discours inconnu”. En Critique, abril de 1973. pp. 293-317. Citado por De Certeau.

[v] De Certeau, Michel. “Andares de la ciudad”. En Ortega, Francisco. La irrupción de lo impensado. Pontificia Universidad Javeriana, 2004. p. 268. Puede consultarse una versión digital en http://redalyc.uaemex.mx/pdf/558/55800708.pdf y una versión en línea en bifurcaciones [online]. núm. 7, año 2008. World Wide Web document, URL: <www.bifurcaciones.cl/007/reserva.htm>. ISSN 0718-1132.

[vi] Ibidem. pp. 107-108.

[vii] Reguillo, Rossana. El oráculo en la ciudad: creencias prácticas y geografías simbólicas.Diálogos de la Comunicación Edición N.49. Consultado en http://www.dialogosfelafacs.net/dialogos_epoca/pdf/49-03RossanaReguillo.pdf el 8 de marzo de 2009.




Biblioteca

Ver el perfil de Roberto Igarza en LinkedIn
octubre 2017
L M X J V S D
« Mar    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  

Acceso rápido a los contenidos


A %d blogueros les gusta esto: