martes, 19 de octubre de 2010

Acerca de la Gestión del Conocimiento

1.¿Qué es la gestión del conocimiento?

La Gestión del conocimiento (del inglés Knowledge Management) es un concepto aplicado en las organizaciones, que busca transferir el conocimiento y la experiencia existente entre sus miembros, de modo que pueda ser utilizado como un recurso disponible para otros en la organización.
Usualmente el proceso implica técnicas para capturar, organizar, almacenar el conocimiento de los trabajadores, para transformarlo en un activo intelectual que preste beneficios y se pueda compartir.
En la actualidad, las tecnologías de información permiten contar con herramientas que apoyan la gestión del conocimiento en las empresas, apoyando en la recolección, la transferencia, la seguridad y la administración sistemática de la información, junto con los sistemas diseñados para ayudar a hacer el mejor uso de ese conocimiento.
En detalle, se refiere a las herramientas y a las técnicas diseñadas para preservar la disponibilidad de la información llevada a cabo por los individuos dominantes y facilitar la toma de decisiones, así como reducir el riesgo. Es un mercado del software y un área en la práctica de la consultoría, relacionada a disciplinas tales como inteligencia competitiva. Un tema particular de la administración del conocimiento es que el conocimiento no se puede codificar fácilmente en forma digital, tal como la intuición de los individuos dominantes que viene con años de experiencia y de poder reconocer los diversos patrones del comportamiento que alguien con menos experiencia no puede reconocer.
El proceso de la Administración del Conocimiento, también conocido en sus fases de desarrollo como "aprendizaje corporativo" o "aprendizaje organizacional", tiene principalmente los siguientes objetivos:
  • Identificar, recoger y organizar el conocimiento existente.
  • Facilitar la creación de nuevo conocimiento.
  • Apuntalar la innovación a través de la reutilización y apoyo de la habilidad de la gente a través de organizaciones para lograr un mejor desempeño en la empresa.
La transferencia del conocimiento (un aspecto de la Administración del Conocimiento) ha existido siempre como proceso en las organizaciones. De manera informal por medio de las discusiones, sesiones, reuniones de reflexión, etc., y de manera formal por medio del aprendizaje, el entrenamiento profesional y los programas de capacitación. Como práctica emergente de negocio, la administración del conocimiento ha considerado la introducción del principal oficial del conocimiento, y el establecimiento de Intranets corporativos, de wikis, y de otras prácticas de la tecnología del conocimiento y de información.


2.¿Qué es la innovación?


Diversos autores, expertos en la materia, han definido el concepto de innovación, existen múltiples definiciones acerca de un concepto que en apariencia es simple pero a la vez es ambiguo, una gran mayoría de definiciones provienen de la definición promulgada por el economista austriaco Schumpter en la cual la innovación abarca los 5 casos siguientes:
  1. Introducción en el mercado de un nuevo bien o servicio , el cual los consumidores no están aun familiarizados.
  2. Introducción de un nuevo método de producción o metodología organizativa.
  3. Creación de una nueva fuente de suministro de materia prima o productos semielaborados
  4. Apertura de un nuevo mercado en un país.
  5. Implantación de una nueva estructura en un mercado.
Existen 2 puntos en el cual todos los autores convergen:
  1. Si los nuevos productos, procesos o servicios no son aceptados por el mercado, no existe innovación.
  2. La innovación es el elemento clave de la competitividad.


3.¿Qué es el capital intelectual?


El concepto de Capital Intelectual se ha incorporado en los últimos años tanto al mundo académico como empresarial para definir el conjunto de aportaciones no materiales que en la era de la información se entienden como el principal activo de las empresas del tercer milenio ( Brooking, 1997 ).
Según Brooking (1997), el capital intelectual no es nada nuevo, sino que ha estado presente desde el momento en que el primer vendedor estableció una buena relación con un cliente. Más tarde, se le llamó fondo de comercio. Lo que ha sucedido en el transcurso de las dos últimas décadas es una explosión en determinadas áreas técnicas clave, incluyendo los medios de comunicación, la tecnología de la información y las comunicaciones, que nos han proporcionado nuevas herramientas con las que hemos edificado una economía global. Muchas de estas herramientas aportan beneficios inmateriales que ahora se dan por descontado, pero que antes no existían, hasta el punto de que la organización no puede funcionar sin ellas. La propiedad de tales herramientas proporciona ventajas competitivas y, por consiguiente, constituyen un activo.
Para Brooking (1997), “con el término capital intelectual se hace referencia a la combinación de activos inmateriales que permiten funcionar a la empresa”.
Edvinsson (1996) presenta el Concepto de Capital Intelectual mediante la utilización de la siguiente metáfora: “Una corporación es como un árbol. Hay una parte que es visible (las frutas) y una parte que está oculta (las raíces). Si solamente te preocupas por las frutas, el árbol puede morir. Para que el árbol crezca y continúe dando frutos, será necesario que las raíces estén sanas y nutridas. Esto es válido para las empresas: si sólo nos concentramos en los frutos (los resultados financieros) e ignoramos los valores escondidos, la compañía no subsistirá en el largo plazo”.
Steward (1997) define el Capital Intelectual como material intelectual, conocimiento, información, propiedad intelectual, experiencia, que puede utilizarse para crear valor. Es fuerza cerebral colectiva. Es difícil de identificar y aún más de distribuir eficazmente. Pero quien lo encuentra y lo explota, triunfa. El mismo autor afirma que en la nueva era, la riqueza es producto del conocimiento. Éste y la información se han convertido en las materias primas fundamentales de la economía y sus productos más importantes.  
En definitiva, El Capital Intelectual lo podemos definir como el conjunto de Activos Intangibles de una organización que, pese a no estar reflejados en los estados contables tradicionales, en la actualidad genera valor o tiene potencial de generarlo en el futuro ( Euroforum, 1998 ).
Los conocimientos de las personas clave de la empresa, la satisfacción de los empleados, el know-how de la empresa, la satisfacción de los clientes, etc., son activos que explican buena parte de la valoración que el mercado concede a una organización y que, sin embargo, no son recogidos en el valor contable de la misma.
Está claro que existe un capital que nadie se preocupa por medir y del que nadie informa dentro de la organización, pero que sin lugar a dudas tiene un valor real. Identificar y Medir el Capital Intelectual (Activos Intangibles) tiene como objeto convertir en visible el activo que genera valor  en la organización.
Como sabemos el peso del Capital Intelectual sobre el valor de mercado de una organización es creciente y por lo tanto los esfuerzos se dirigen a medirlo y a gestionarlo.   
Según Brooking (1997) el capital intelectual de una empresa puede dividirse en cuatro categorías:
  •    Activos de mercado (potencial derivado de los bienes inmateriales que guardan relación con el mercado).
  •    Activos de propiedad intelectual (know-how, secretos de fabricación, copyright, patentes, derechos de diseño, marcas de fábrica y servicios).
  •    Activos centrados en el individuo (cualificaciones que conforman al hombre y que hacen que sea lo que es).
  •    Activos de infraestructura (tecnologías, metodologías y procesos que hacen posible el funcionamiento de la organización).  

Para Edvinsson y Malone (1997) el capital intelectual se divide en:
  •    Capital Humano  
  •    Capital Estructural  
    • Capital Clientela.  
    • Capital Organizacional.  
      • Capital Innovación.  
      • Capital Proceso  
Steward (1997) divide el capital intelectual en tres bloques:
  •    Capital Humano.
  •    Capital Estructural.
  •    Capital Cliente.
Para Euroforum (1998), el Capital Intelectual se compone  de:
  •    Capital Humano.
  •    Capital Estructural.
  •    Capital Relacional.  
El Capital Intelectual, de cualquier forma, es considerado como un concepto de stock, es decir, va a estar relacionado con la medición de los activos intangibles (es un concepto contable) que generan capacidades distintivas, o competencias esenciales, a largo plazo.  
Nota: Información facilitada por Juan Carrión Maroto



martes, 14 de septiembre de 2010

Tipos de Publicidad en Internet

Algunos tipos de publicidad en Internet son:
• Banner: Sirve para promocionar una empresa o producto y como puerta de entrada al sitio web del anunciante. tercio superior de la página – Localizaciones preferentes: lateral derecho de la página – Puede aparecer presentado de diferentes maneras: 1. Banner animado 2. Banner no animado 3. Banner extensible: posibilidad de extenderse y disponer de más espacio. 4. Banner con flash: Gracias al software Macromedia Flash, el texto y las imágenes parecen películas animadas, lo que puede realzarse con sonido.
Botones: – Son banners más pequeños. – Pueden ser estáticos o dinámicos, fijos en secciones o Home Page , “clickables” en muchos casos y situados en puntos diversos dentro de la composición de la página
Website: – Conjunto de páginas web que dependen de un mismo dominio. – Publicidad de carácter corporativo – Canal de atención y servicio a clientes – Contacto permanente con el mercado – Dispone de un catálogo actualizado – Herramienta de estudio sobre intereses y necesidades de los consumidores.
Microsite: – Pequeñas webs independientes, dentro de un sitio, dedicadas a un producto o tema concreto – Comunica información concreta para generar actitud determinada. – Presentan mensajes más cortos y más directos – Disponen de mini websites que mejoran el target.
Pop up window: – Ventanas flotantes – Al acceder a la web se abre una ventana sin ser solicitada – Puede ser cerrada en cualquier momento – Problema: navegación lenta, resulta molesto – Ventaja: llama la atención y se descarga más rápido que la página
Push advertising: – Información que llega al usuario sin que este se conecte a la página – Puede darse en forma de salvapantallas. Cursor animador: – Compañías ceden imágenes para que los usuarios las utilicen como cursor.
Patrocinio: – Permite relacionar directamente una marca o empresa con los contenidos atractivos para un tipo de público de una página web – Patrocinador realiza aportación obtiene beneficio a dineraria a la web modo de publicidad – Objetivos: IMAGEN Y NOTORIEDAD – Contenido patrocinado debe estar adecuado al soporte
Tipos de patrocinio: Patrocinio propiamente dicho: mensaje del patrocinador se incorpora en una sección. Patrocinio exclusivo de un site o sección: branding, para potenciar la imagen de marca Batering : crear pieza específica para el anunciante
Escaparates: – Formados por conjunto de imágenes y texto clickables – Suelen utilizarse en secciones de compras de los sitios – Buena fuente de información sobre las ofertas de ventas
Galerías: – Espacio formado por varias empresas y tiendas – Cada tienda de la galería ofrece sus productos con independencia del resto – Cada empresa tiene su icono.



martes, 7 de septiembre de 2010

La Gestalt para un sitio web

La teoría Gestalt permite el análisis del Diseño desde el punto de vista de las leyes de la percepción. El núcleo de la Psicología de la Gestalt gira en torno a la siguiente afirmación: La percepción humana no es la suma de los datos sensoriales, sino que pasa por un proceso de reestructuración que configura a partir de esa información una forma.


Las leyes de la Gestal son:                                         
  • Ley de la Prägnanz (Pregnancia): la tendencia de la experiencia perceptiva a adoptar las formas más simples posibles
    • Ley del Cierre : la mente añade los elementos faltantes para completar una figura. Existe una tendencia innata a concluir las formas y los objetos que no percibimos completo.
    • Ley  de la Semejanza – Nuestra mente agrupa los elementos similares en una entidad. La semejanza depende de la forma, el tamaño, el color y otros aspectos visuales de los elementos.

    • Ley  de la Proximidad : El agrupamiento parcial o secuencial de elementos por nuestra mente basado en la distancia.
    • Ley  de Simetría – Las imágenes simétricas son percibidas como iguales, como un solo elemento, en la distancia.
    • Ley  de Continuidad : Los detalles que mantienen un patrón o dirección tienden a agruparse juntos, como parte de un modelo. Es decir, percibir elementos continuos aunque estén interrumpidos entre sí
    • Ley  de dirección común: Implica que los elementos que parecen construir un patrón o un flujo en la misma dirección se perciben como una figura.
    • Ley  de simplicidad: Asienta que el individuo organiza sus campos preceptúales con rasgos simples y regulares y tiende a formas buenas.
    • Ley de la relación entre figura y fondo: afirma que cualquier campo perceptual puede dividirse en figura contra un fondo. La figura se distingue del fondo por características como: tamaño, forma, color, posición, etc..
Los principios de la Gestalt fueron desarrollados a comienzos del siglo 20 por psicólogos que creían que las imágenes eran percibidas como algo mas que la suma de las partes
En este orden de ideas, la teoría de la Gestalt permite a los comunicadores predecir como las personas responden a los elementos de diseño, es decir, que conociendo y usando la Teoría de la Gestalt en técnicas de comunicación, se puede ayudar y asegurar que el mensaje que se quiere transmitir va a ser comprendido, y al mismo tiempo ser dinámico.
Así mismo estos principios pueden ser aplicados al diseño de Interfaces, como un medio para ayudar a los usuarios a comprender de forma más rápida el funcionamiento de un software o aplicación web aplicando la interacción con Patrones de Diseño.
Cabe resaltar que la Gestalt va más allá de estos principios, y que no solo son aplicables al diseño, sino también a la resolución de problemas e incluso a la transmisión subliminal de mensajes, por lo que es posible distinguir dos tipos de patrones, el primero orientado a la funcionalidad (Patrones de Diseño de Software) y el segundo orientado a la usabilidad, (Patrones de Diseño de Interacción). Estos modelos se complementan y han resultado ser exitosos a la hora de aplicarlos al desarrollo de aplicaciones Interactivas.
En este punto es que los Patrones de diseño se convierten en métodos y técnicas de importancia a la hora de desarrollar un diseño centrado en el usuario.
En conclusión, la Gestalt como principios de organización y los patrones de Diseño, como organizaciones ayudan a desarrollar diseños centrados en la usabilidad, en la eficiencia, la eficacia y  en la satisfacción del usuario final.

TRES MARCAS RELACIONADAS CON LAS TÉCNICAS DE GESTALT

GRUPO SURA
  • Antes:

  •  Despúes:


ABSOLUT



 APPLE Co.

martes, 24 de agosto de 2010

Entienda la Web 2.0 y sus principales servicios

Entienda la Web 2.0 y sus principales servicios

Definiciones Web: 1.0 - 2.0 & 3.0



La Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos como. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape, etc.
La Web 1.0 es de sólolectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.
Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.
Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno.

El término Web 2.0 (2004–presente) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y lacolaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.
Se asocia estrechamente con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee , quien califico al termino como "tan solo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.



Web 2.0 presentation
View more presentations from Cristobal Cobo Romaní.




Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en unabase de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.

martes, 17 de agosto de 2010

Brechas Digitales - Conceptos y acciones

1. ¿QUÉ SON LAS BRECHAS DIGITALES?
R: “Una versión moderna de brecha tecnológica es la brecha digital que está relacionada con las limitaciones de acceso y aplicación de las nuevas tecnologías de la información(NTI): telecomunicaciones e informática” (Serrato S., Arturo; 2003) Según Serrato en su libro “La brecha digital: mitos y realidades”  dice que las brechas tecnológicas sostienen una interrelación entre la densidad de la tecnología en la población de un país y el producto interno bruto del mismo; del desarrollo socioeconómico del país depende la densidad de la tecnología. Además dice, que el desarrollo de las brechas digitales ha creado a través de la historia polos de dominio e inclusive de opresión entre aquellos que manejan y tienen acceso al desarrollo tecnológico y los que no los tienen.

Además dice que antes existió una brecha analógica (de los teléfonos) que incluso hoy en día en el mundo no ha podido reducirse a cero en vista que la nueva brecha (la digital) ya se haya esparcido por todo el mundo. Menciona además que esta brecha se ha dado debido al desarrollo de tecnología innovadora como las computadoras y el internet y ve la importancia de que se debe actuar en base la siguiente afirmación: “La digitalización se esparció en todo el mundo aun antes de que la brecha analógica se hubiera reducido considerablemente; ahora no sólo es importante reducir la separación entre ‘los que tienen’ y ‘no tienen’, es fundamental reducir también la separación que internet acentúa entre los que se enteran y los que no se enteran.”



2.¿CUALES SON LOS TIPOS DE BRECHAS DIIGITALES QUE EXISTEN?
R: Los tres aspectos de la brecha digital

También se posiciona en este evento de UIT que la brecha digital está basada en aspectos de acceso pero también en los relacionados con el uso de las TIC. Se proponen tres tipos de brecha digital: la de acceso, basada en la diferencia entre las personas que pueden acceder y las que no a las TIC ; la de uso, basada en las personas que saben utilizarlas y las que no ; y las de la calidad del uso, basada en las diferencias entre los mismos usuarios [7].

Como puede deducirse, el concepto de brecha digital se ha modificado a través del tiempo. En un principio se refería básicamente a los problemas de conectividad. Posteriormente, se empieza a introducir la preocupación por el desarrollo de las capacidades y habilidades requeridas para utilizar las TIC (capacitación y educación) y últimamente también se hace referencia al uso de los recursos integrados en la tecnología. Así, el concepto de brecha digital incorpora los siguientes enfoques básicamente:

a) El enfoque hacia la infraestructura: o sea, la posibilidad/dificultad de disponer de computadoras conectadas a la red mundial. Esto incluye también el problema de servidores y de back tones. De hecho, los países del sur siguen dependientes de los equipamientos del norte.

b) El enfoque hacia la capacitación: es decir, la capacidad/dificultad de usar estas tecnologías. Se empezó a contemplar que también existe una diferencia relacionada con las habilidades y capacidades para utilizar adecuadamente la tecnología y no solamente con la posibilidad de disponer de computadoras. En este sentido, se comienza a desarrollar el concepto de alfabetización digital relacionado con el de brecha digital.

c) El enfoque hacia el uso de los recursos: se refiere a la limitación/posibilidad que tienen las personas para utilizar los recursos disponibles en la red. En los últimos tiempos, se ha integrado en el concepto de brecha digital las posibilidades de utilizar la tecnología no ¬solamente para acceder a la información, el conocimiento sino también a un nuevo modo de educación y para aprovechar de las “nuevas oportunidades” como el desarrollo de los negocios, la atención médica en línea, el teletrabajo, el disfrute de nuevas formas de entretenimiento y ocio.

Basados en estos elementos, muchos de los organismos internacionales han definido una política de desarrollo orientada a la reducción de la brecha digital. Sin embargo, a pesar de la evolución en el concepto, se enfatiza principalmente en el desarrollo de la infraestructura tecnológica. Las inversiones y las políticas nacionales para la reducción de la brecha digital siguen orientadas principalmente hacia el desarrollo de la conectividad.

Una de las mejores maneras de concretar la comprensión de un concepto es la forma en que este se le valora. En este sentido, las más importantes mediciones de la brecha digital (e-readiness, UIT) están relacionadas con el grado de masificación del uso de las TIC entre países, regiones, grupos o personas y se mide por variables como la disponibilidad de computadoras, la densidad telefónica y la velocidad de acceso por persona[8].



3. ¿QUÉ PASA CON ESTAS BRECHAS EN COLOMBIA?¿QUÉ SE PODRÍA HACER?
R: Según la CRC (Comisión de Regulación de Comunicaciones República de Colombia), en su informe trimestral de conectividad indica que tan solo 3.2 millones de personas tienen acceso a internet, lo que es más o menos similar al 7,11% de la población.  El informe indica incluso que nosotros tenemos un acceso promedio al internet inferior al promedio de la región (Latinoamérica). Todo esto dice que en Colombia tenemos una amplia brecha digital. Sin embargo, se puede decir que se ha ganado terreno gracias a la incorporación de muchas compañía en el sector de comunicaciones, provocando la reducción de costos de los productos como internet LAN e incentivando otros como los dispositivos inalámbricos y móviles.

En general, lo importante es que Colombia insista en permitir la penetración de la tecnología en cada una de las escuelas públicas que existan en el país, impulsando un modelo de educación para la infancia del mundo tecnológico. Implementar políticas de comercio exterior disminuyendo a cero los aranceles de importación de equipos de computo. Permitir el ingresos de más competidores en telefonía y medios de comunicación. Facilitar el acceso a créditos a través de entidades financieras para las personas que estudian y no tienen historia crediticia. Apoyar fundaciones que tengan como fin obtener recursos tecnológicos para personas de condición socioeconómica no favorable. Crear programas y políticas gubernamentales en cada localidad para crear centros tecnológicos o cabinas de internet apoyadas por gobernaciones y alcaldías. Incentivar a través de programas de educación gratuitos en instituciones públicas y privadas el uso de las computadoras y el aprendizaje en el campo tecnológico. Declarar el internet como un derecho.

martes, 3 de agosto de 2010

¿Viviría sin Internet?



Si cronometrara cualquier tarea de investigación o indagación (como la que acabo de hacer) la eficiencia en cuanto a el costo en tiempo empleado sería absolutamente alto; me vería obligado siempre a calcular matemáticamente al menos la potencia cuadrada de la unidad de tiempo "horas" para intentar estimar el tiempo en encontrar la información. 


Esto podría resultar caótico, si pensara que soy el único hombre que no tiene contacto alguno con la World Wide Web a sabiendas de que sería probablemente el menos competitivo y eficiente de mi circulo social. Lo positivo de ésta aventura, sería que al menos podría desarrollar fuertes habilidades de lectura e investigación y podría aseverar sin reparos que las fuentes sobre las cuales tomo los datos es 100% confiable, ya que estarían datada en libros, papers y/o investigaciones científicamente editadas y calificadas.

Pienso entonces que redundaría en una vida menos cómoda, más engorrosa y menos práctica para la aprensión del conocimiento y la información. Imaginarme una vida sin internet es imaginar un mundo desactualizado, que de acuerdo a las posibilidades económicas y sociales tendría una atomizada y limitada tradición oral para avanzar en el campo del conocimiento o entendimiento del mundo real; de donde no podría observar este de una manera rápida y entretenida y en cambio implicaría conocer lo que en el corto alcance de lo no virtual se logra.

Sin duda alguna viviría (al igual que lo hicieron mis ancestros), la diferencia radica en que no sería una vida digna para la realidad de una era informática en donde los datos y la información son la fuente del poder para sobrevivir en el mundo actual.

Algo de Tim Berners-Lee





Director del Consorcio World Wide Web (W3C), luego de haber impulsado su creación hacia 1994. Hijo de padres matemáticos, Berners-Lee nació el 8 de junio de 1955 en Londres y se graduó con la licenciatura en Física en el Queen’s College de la Universidad de Oxford, en Inglaterra, allá por 1976. Ya a principios de los 80 desarrolló un programa, el “Enquire”, la base de lo que sería su futura y máxima creación. En 1989 cuando le propuso al CERN (Laboratorio Europeo de Física de las Partículas) en Ginebra, su idea de un hipertexto global que se transformaría en la World Wide Web., que inicialmente surgió como una forma de establecer una comunicación más fluida a través de Internet entre los mismos científicos.

Como graduado de la Universidad de Oxford, Tim Berners-Lee inventó la World Wide Web, una iniciativa hipermedia basada-Internet para el intercambio de información global, mientras que en el CERN, el Laboratorio Europeo de Física de Partículas, en 1989. Escribió el cliente y el servidor web de primera en 1990. Sus especificaciones de URIs, HTTP y HTML fueron refinadas como la propagación de tecnología Web.

Él es el profesor de 3Com Fundadores de Ingeniería en la Escuela de Ingeniería con un nombramiento conjunto en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachusetts (MIT), donde también dirige el Grupo de Información Descentralizada (CID). También es profesor en la Electrónica y Computación Departamento de Ciencias de la Universidad de Southampton, Reino Unido.

Él es el Director de la World Wide Web Consortium (W3C), una organización de estándares web fundada en 1994, que desarrolla tecnologías interoperables (especificaciones, directrices, software y herramientas) para guiar la Web hacia su máximo potencial. Es director fundador de la Ciencia Fiduciario Web (WST) puso en marcha en 2009 para promover la investigación y la educación en ciencia del web, el estudio multidisciplinario de la humanidad conectada por la tecnología.

También es Director de la World Wide Web Foundation, creada en 2009 para financiar y coordinar los esfuerzos para promover el potencial de la Web para beneficiar a la humanidad. En 2009 Tim también aconsejó Gobierno del Reino Unido "el hacer público los datos públicos" iniciativa.

En 2001 fue nombrado Fellow de la Royal Society. Él ha sido el recipiente de varios premios internacionales incluyendo el Premio Japón, la Fundación Príncipe de Asturias Premio, el Premio de Tecnología del Milenio y el alemán Die Quadriga de adjudicación. En 2004 fue nombrado caballero por la Reina Isabel y en 2007 fue galardonado con la Orden del Mérito. En 2009 fue elegido miembro asociado extranjero de la Academia Nacional de Ciencias. Él es el autor del libro "Weaving the Web". En los últimos tiempos, Berners-Lee estaba trabajando en una Red semántica, una red que permitirá buscar la información en diversas bases de datos, todas compatibles, por lo que podrá ser manejada directamente por las computadoras.




Su aporte ha sido como creador de World Wide Web, del HyperText Markup Language (HTLM)  un el lenguaje que permite establecer enlaces con otros documentos en una máquina, y el esquema de direcciones que genera una localización única para cada página, del URL (Uniform Resourse Locutor), y del HTTP (HyperText Transfer Protocol) -que permite la trasferencia de la información en la red. Pienso que gracias a Tim como el creador del mundo de las WWW, nuestro mundo se convertido en un “espacio” cada vez más “pequeño” y a su vez “profundo”, donde todos nos hemos interconectado y mudado a un solo lugar una sola casa “la aldea global”; interesante, dinámica y poderosa... Del producto de este invento, nosotros logramos compartir información con todo el mundo, intercambiar dato, textos y contextos que posibilitan la creación de nuevas ideas y aportes al progreso de la humanidad que se ven engendrados en rápidamente en el tiempo con nuevos inventos y reinventando lo inventado.

Fuente:http://www.w3.org/People/Berners-Lee/;http://www.mastermagazine.info/articulo/11787.php; http://www.abc.es/personajes/famoso.asp?biografia=tim%20berners-lee&historia=70

Touch Screen o Pantalla Táctil

En 1971, el primer “sensor táctil” fue desarrollado por el Doctor Sam Hurst (fundador de Elographics) mientras era profesor de la Universidad de Kentucky (USA). Este sensor llamado “Elograph” o “Electrical Sensor Of Plane Coordinates” fue patentado por The University of Kentucky Research Foundation.

El “gráfismo electrónico” o “Elograph” no era transparente como muchas pantallas táctiles modernas, sin embargo, fue un hito significativo en el desarrollo de la tecnología de pantalla. En 1974, la primera y verdadera pantalla táctil incorporó una superficie transparente que apareció en escena desarrollada por Sam Hurst and Elographics Inc.

En 1977, Elographics desarrolló y patentó la tecnología de “cinco hilos de resistencia” o “five-wire resistive technology”, que es la pantalla de tecnología táctil más popular en uso hoy en día. El 24 de febrero de 1994, la empresa cambió oficialmente su nombre de Elographics a TouchSystems Elo.


Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrándonos los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos, así como emulador de datos interinos erroneos al no tocarse efectivamente.

Las pantallas tactiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971 por el Dr. Samuel G. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos y en PDAs donde se suele emplear un estilete para manipular la interfaz gráfica de usuario y para introducir datos. La popularidad de los teléfonos inteligentes, pipePDAs, de las vídeo consolas portátiles o de los navegadores de automóviles está generando la demanda y la aceptación de las pantallas táctiles.

La interacción efectuada por tal objeto permitió que en 1993 se integraran al mercado varios productos interactivos para niños tales como los libros gráficos de la Matel.

El HP-150 fue, en 1983, uno de los primeros ordenadores comerciales del mundo que disponía de pantalla táctil. En realidad no tenía una pantalla táctil en el sentido propiamente dicho, sino una pantalla de tubo Sony de 9 pulgadas rodeada de transmisores y receptores infrarrojos que detectaban la posición de cualquier objeto no-transparente sobre la pantalla.
Las pantallas táctiles de última generación consisten en un cristal transparente donde se sitúa una lámina que permite al usuario interactuar directamente sobre esta superficie, utilizando un proyector para lanzar la imagen sobre la pantalla de cristal. Se sale de lo que hasta hoy día se entendía por pantalla táctil que era básicamente un monitor táctil.

Las pantallas táctiles son populares en la industria pesada y en otras situaciones, tales como exposiciones de museos donde los teclados y los ratones no permiten una interacción satisfactoria, intuitiva, rápida, o exacta del usuario con el contenido de la exposición.

La gran mayoría de las tecnologías de pantalla táctil más significativas fueron patentadas durante las décadas de los 1970 y 1980 y actualmente han expirado. Este hecho ha permitido que desde entonces los diseños de productos y componentes que utilizan dichas tecnologías no estén sujetos a royalties, lo que ha permitido que los dispositivos táctiles se hayan extendido más fácilmente.

Como ocurre habitualmente con cualquier tecnología, el hardware y el software asociado a las pantallas táctiles ha alcanzado un punto de madurez suficiente después de más de tres décadas de desarrollo, lo que le ha permitido que actualmente tengan grado muy alto de fiabilidad. Como tal, las pantallas táctiles pueden hallarse en la actualidad en aviones, automóviles, consolas, sistemas de control de maquinaria y dispositivos de mano de cualquier tipo.

Pienso que es esté invento en proporciones de economía de escala será muy útil para la tecnificación e innovación de los productos haciéndolos cada vez más simples en su hardware. Las industrias que producen y diseñan dispositivos portátiles y computadoras, podrían reducir considerablemente el costo de los materiales al suprimir ciertos elementos que componen el aparato. Como se ve actualmente con el iphone, en donde el teclado físicamente como es conocido no existe; lo que parecería augurar que en unas cuantas décadas la desaparición de los teclados será inevitable en los dispositivos que los requieren. Por otro lado, imagino un mundo tecnológico reducido a pantallas táctiles que resultaría muy cómodo y sofisticado donde la capacidad que genere el software para el trabajo y el entretenimiento será predominantemente el preferido.


Inventor: HURST, GEORGE SAMUEL


Dr. G. S. "Sam" Hurst (izquierda), fundador de Elographics, Inc. El Elograph  fue seleccionado por Industrial Research como uno de los 100 más significativos de los nuevos productos técnicos del añor 1973.


HURST, GEORGE SAMUEL - Inventor, escritor, científico y pensador creativo murió el 04 de julio 2010, un día después de observar su sesenta y dosavo aniversario de boda con la mujer que a lo largo la vida fue su mejor amiga, Betty P. Hurst. Nació el 13 de octubre 1927 en Bell County, Kentucky. Sam Hurst, junto con dos hermanos y dos hermanas trabajabajaron en las zonas rurales de la granja de la familia en la pequeña comunidad de Ponza. Se matriculó en Berea College a los 15 años. De allí, Sam iría a ganar una Maestría en Ciencias Físicas por la Universidad de Kentucky y un doctorado, también en Física por la Universidad de Tennessee en 1959.

Comenzó su carrera en el Laboratorio Nacional Oak Ridge en 1948. El Dr. Hurst trabajó como investigador en el campo emergente de la Salud Física, a la que hizo contribuciones significativas en la instrumentación y el análisis de campo. Viajó a Japón con sus colegas para estudiar las enfermedades y los efectos latentes las tasas de mortalidad de los sobrevivientes de la bomba atómica. Sam amaba Estado de Origen de su alma mater, y se desempeñó como profesor de Física en la Universidad de Kentucky en los años sesenta. Volviendo a ORNL, Hurst carrera del Dr. tomó una dirección nueva y emocionante en la espectroscopia basada en láser ultra-sensibles. Tenía más de treinta patentes y autor de numerosos artículos técnicos. Él inventó la computadora original de pantalla táctil o “touch-screen”.