Latest Entries »

E-LEARNING

Se denomina e-learning a la educación a distancia completamente virtualizada a través de los nuevos canales electrónicos (las nuevas redes de comunicación, en especial Internet), utilizando para ello herramientas o aplicaciones de hipertexto (correo electrónico, páginas web, foros de discusión, chat, plataformas de formación -que aunan varios de los anteriores ejemplos de aplicaciones-, etc.) como soporte de los procesos de enseñanza-aprendizaje. En un concepto más relacionado con lo semipresencial, también es llamado “b-learning” (Blended-Learning).

Enseñanza

Gracias a las nuevas tecnologías de la información y la comunicación (TIC), los estudiantes “en línea” pueden comunicarse con sus compañeros “de clase” y docentes (profesores, tutores, mentores, etc.), de forma síncrona o asíncrona, sin limitaciones espacio-temporales. Es decir, se puede entender como una modalidad de aprendizaje dentro de la educación a distancia en la que se utilizan las redes de datos como medios (Internet, intranets, etc.), las herramientas o aplicaciones hipertextuales como soporte (por ejemplo, correo electrónico, web, chat, etc. ) y los contenidos y/o unidades de aprendizaje en línea como materiales formativos (por ejemplo, desde simples imágenes, audio, video, documentos, etc., hasta complejas producciones multimedia, “píldoras formativas”, etc.; sin olvidarnos de los contenidos construidos de forma colaborativa, derivados del desarrollo de la conocida como Web 2.0 ), entre otros.

Dentro de la modalidad a distancia, es una de las opciones que actualmente se utiliza con mayor frecuencia para atender la necesidad de educación continua o permanente. La generación de programas de perfeccionamiento profesional no reglados está en crecimiento debido a que existe un reconocimiento de que los trabajadores se capaciten y se adapten a los nuevos requerimientos productivos. Dadas sus características y el soporte tecnológico que lo respalda, se constituye en una alternativa para aquellos que combinan trabajo y actualización, ya que no es necesario acudir a una aula permanentemente.

Si la educación a distancia es, desde sus orígenes, una opción para atender la formación de personas adultas, éste tiene la ventaja de que los usuarios eligen sus propios horarios, y puede entrar a la plataforma desde cualquier lugar donde puedan acceder a una computadora y tengan conexión a Internet. La educación virtual da la oportunidad de que el estudiante elija sus horarios de estudio convirtiéndose así en una muy buena opción para aquellas personas autónomas que trabajen y quieran estudiar en sus momentos libres; por otra parte es importante mencionar que el e-learning es una excelente herramienta que puede ayudar a los usuarios no solo a aprender conceptos nuevos sino también a afianzar conocimientos y habilidades, aumentado así la autonomía y la motivación de los estudiantes por diferentes temas.

Ventajas

Las ventajas que ofrece la formación online serían las siguientes:

  • Inmersión práctica en un entorno web 2.0.
  • Eliminación de barreras espaciales y temporales (desde su propia casa, en el trabajo, en un viaje a través de dispositivos móviles, etc.). Supone una gran ventaja para empresas distribuidas geográficamente.
  • Prácticas en entornos de simulación virtual, difíciles de conseguir en formación presencial, sin una gran inversión.
  • Gestión real del conocimiento: intercambio de ideas, opiniones, prácticas, experiencias. Enriquecimiento colectivo del proceso de aprendizaje sin límites geográficos.
  • Actualización constante de los contenidos (deducción lógica del punto anterior).
  • Reducción de costes (en la mayoría de los casos, a nivel metodológico y, siempre, en el aspecto logístico).
  • Permite una mayor conciliación de la vida familiar y laboral.

e-Learning, el futuro de la educación a distancia

El e-Learning viene a resolver algunas dificultades en cuanto a tiempos, sincronización de agendas, asistencia y viajes, problemas típicos de la educación tradicional.

Por: Ing. Jorge A. Mendoza
Publicado: Junio 10 del 2003

Entre los avances tecnológicos más recientes que han venido impulsando la competitividad de las empresas, tales como los centros de contacto (call centers), la administración de la cadena de suministro (SCM, supply chain management), el comercio electrónico (e-Commerce), la administración de la relación con clientes (CRM, customer relationship management) y la dirección del recurso humano (e-Employee), hay una tecnología que está por desarrollar su máximo potencial: la educación electrónica (e-Learning).

Por definición, el e-Learning es el suministro de programas educacionales y sistemas de aprendizaje a través de medios electrónicos. El e-Learning se basa en el uso de una computadora u otro dispositivo electrónico (por ejemplo, un teléfono móvil) para proveer a las personas de material educativo. La educación a distancia creó las bases para el desarrollo del e-Learning, el cual viene a resolver algunas dificultades en cuanto a tiempos, sincronización de agendas, asistencia y viajes, problemas típicos de la educación tradicional.

La constante capacitación es un requerimiento de las sociedades actuales. Con todas las presiones del día a día, utilizar Internet para capacitarnos no es una moda sino una herramienta que nos facilitará esta constante actualización.

Ayer fue una tarde interesante
llena de información y nuevo conocimiento. Luego de almorzar tomé un breve curso
de control de estrés en el Tec de Monterrey de México. Un breve intermedio acompañado
del cafecito fue el único descanso para continuar con los estudios. Esta vez
fue un breve pero interesante curso de Técnicas de Negociación a cargo de una
entidad de Asesores de Madrid. El viaje no fue para nada extenuante pues al
viajar en la red nos transportamos a millones de kilómetros con pocos clicks.

Desde la revolución industrial, la educación
a distancia surge para facilitar la especialización del personal. Y así con
el avanzar de los tiempos, la tecnología siempre ha presentado diferentes opciones
para compartir información, desde material impreso, radioconferencias, teleconferencias,
videos e incluso CD-ROMs apoyados por correspondencia postal y llamadas telefónicas.

Con Internet se ha dado un nuevo paso
en el tema de la educación a distancia convirtiéndola en una experencia virtual. e-Learning es la forma de designar
a este tipo de educación que se brinda a través de Internet.

BIBLIOGRAFIA

http://es.wikipedia.org/wiki/E-learning

http://www.google.com/images?um=1&hl=es&rlz=1R2ADFA_esEC405&biw=1327&bih=693&tbs=isch%3A1&sa=1&q=e+learning&aq=0&aqi=g2&aql=&oq=e+lear&gs_rfai=

http://www.informaticamilenium.com.mx/paginas/mn/articulo78.htm

http://www.maestrosdelweb.com/editorial/elearning/

Anuncios

Sistema de gestión de contenidos

Un sistema de gestión de contenidos (en inglés Content Management System, abreviado CMS) es un programa que permite crear una estructura de soporte (framework) para la creación y administración de contenidos, principalmente en páginas web, por parte de los participantes.

Consiste en una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio. El sistema permite manejar de manera independiente el contenido y el diseño. Así, es posible manejar el contenido y darle en cualquier momento un diseño distinto al sitio sin tener que darle formato al contenido de nuevo, además de permitir la fácil y controlada publicación en el sitio a varios editores. Un ejemplo clásico es el de editores que cargan el contenido al sistema y otro de nivel superior (directorio) que permite que estos contenidos sean visibles a todo el público (los aprueba).

Definición

El gestor de contenidos es una aplicación informática usada para crear, editar, gestionar y publicar contenido digital en diversos formatos. El gestor de contenidos genera páginas dinámicas interactuando con el servidor para generar la página web bajo petición del usuario, con el formato predefinido y el contenido extraído de la base de datos del servidor.

Esto permite gestionar, bajo un formato padronizado, la información del servidor, reduciendo el tamaño de las páginas para descarga y reduciendo el coste de gestión del portal con respecto a una página estática, en la que cada cambio de diseño debe ser realizado en todas las páginas, de la misma forma que cada vez que se agrega contenido tiene que maquetarse una nueva página HTML y subirla al servidor.

Otras consideraciones iniciales

Entendido como un sistema de soporte a la gestión de contenidos; ya que, en realidad, son las estrategias de comunicación las que realmente llevan a gestionar contenidos de forma efectiva; los sistemas informáticos pueden a lo sumo proporcionar las herramientas necesarias para la publicación en línea, o bien incluir servicios de soporte a la toma de decisiones por lo que a la gestión de contenidos se refiere.

El gestor de contenidos se aplica generalmente para referirse a sistemas de publicación, pudiendo subestimarse las funcionalidades de soporte, en detrimento de las funcionalidades relacionadas con la optimización de los tiempos de publicación. La correcta implantación del sistema, con arreglo a las necesidades del cliente es necesaria, y es necesario entender el proyecto de un portal web en el seno de un proyecto de comunicación estructurado y bien planteado por parte del cliente.

La elección de la plataforma correcta será vital para alcanzar los objetivos del cliente, ya que excentan particularidades diferenciales tanto en su adaptabilidad a esquemas gráficos como la posible integrabilidad de funcionalidades y extensiones adicionales.

El posicionamiento en buscadores está altamente relacionado con el volumen de contenidos de un portal y con la forma en la que éste se presenta. Es importante tener eso en cuenta para la estructura del portal para garantizar un correcto posicionamiento orgánico.

PHP

PHP-logo.svg
Crystal Clear mimetype php.png
Paradigma: multiparadigma
Apareció en: 1995
Diseñado por: PHP Group
Última versión estable: 5.3.3 (22 de julio de 2010)
Tipo de dato: dinámico
Influido por: C, C++, Perl, Java,Python
Sistema operativo: Multiplataforma
Licencia de software: PHP License 3.01
Web: http://www.php.net

PHP es un lenguaje de programación interpretado, diseñado originalmente para la creación de páginas web dinámicas. Es usado principalmente en interpretación del lado del servidor (server-side scripting) pero actualmente puede ser utilizado desde una interfaz de línea de comandos o en la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica usando las bibliotecas Qt o GTK+.

Visión general

PHP es un acrónimo recursivo que significa PHP Hypertext Pre-processor (inicialmente PHP Tools, o, Personal Home Page Tools). Fue creado originalmente porRasmus Lerdorf en 1994; sin embargo la implementación principal de PHP es producida ahora por The PHP Group y sirve como el estándar de facto para PHP al no haber una especificación formal. Publicado bajo la PHP License, la Free Software Foundation considera esta licencia como software libre.

Puede ser desplegado en la mayoría de los servidores web y en casi todos los sistemas operativos y plataformas sin costo alguno. PHP se encuentra instalado en más de 20 millones de sitios web y en un millón de servidores, el número de sitios en PHP ha compartido algo de su preponderante sitio con otros nuevos lenguajes no tan poderosos desde agosto de 2005. Este mismo sitio web de Wikipedia está desarrollado en PHP. Es también el módulo Apache más popular entre las computadoras que utilizan Apache como servidor web. La versión más reciente de PHP es la 5.3.3, del 22 de julio de 2010.

El gran parecido que posee PHP con los lenguajes más comunes de programación estructurada, como C y Perl, permiten a la mayoría de los programadores crear aplicaciones complejas con una curva de aprendizaje muy corta. También les permite involucrarse con aplicaciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones.

Aunque todo en su diseño está orientado a facilitar la creación de página web, es posible crear aplicaciones con una interfaz gráfica para el usuario, utilizando la extensión PHP-Qt o PHP-GTK. También puede ser usado desde la línea de órdenes, de la misma manera como Perl o Python pueden hacerlo; a esta versión de PHP se la llama PHP-CLI (Command Line Interface).

Cuando el cliente hace una petición al servidor para que le envíe una página web, el servidor ejecuta el intérprete de PHP. Éste procesa el script solicitado que generará el contenido de manera dinámica (por ejemplo obteniendo información de una base de datos). El resultado es enviado por el intérprete al servidor, quien a su vez se lo envía al cliente. Mediante extensiones es también posible la generación de archivosPDF, Flash, así como imágenes en diferentes formatos.

Permite la conexión a diferentes tipos de servidores de bases de datos tales como MySQL, Postgres, Oracle, ODBC, DB2, Microsoft SQL Server, Firebird y SQLite.

XAMPP es un servidor independiente de plataforma, software libre, que consiste principalmente en la base de datos MySQL, el servidor Web Apache y los intérpretes para lenguajes de script: PHP y Perl. El nombre proviene del acrónimo de X (para cualquiera de los diferentes sistemas operativos), Apache, MySQL, PHP, Perl. El programa está liberado bajo la licencia GNU y actúa como un servidor Web libre, fácil de usar y capaz de interpretar páginas dinámicas. Actualmente XAMPP esta disponible para Microsoft Windows, GNU/Linux, Solaris, y MacOS X.

PHP también tiene la capacidad de ser ejecutado en la mayoría de los sistemas operativos, tales como UNIX (y de ese tipo, como Linux o Mac OS X) y Windows, y puede interactuar con los servidores de webmás populares ya que existe en versión CGI, módulo para Apache, e ISAPI.

PHP es una alternativa a las tecnologías de Microsoft ASP y ASP.NET (que utiliza C# VB.NET como lenguajes), a ColdFusion de la compañía Adobe (antes Macromedia), a JSP/Java de Oracle, y a CGI/Perl. Aunque su creación y desarrollo se da en el ámbito de los sistemas libres, bajo la licencia GNU, existe además un IDE (entorno de desarrollo integrado) comercial llamado Zend Studio. Recientemente, CodeGear(la división de lenguajes de programación de Borland) ha sacado al mercado un entorno integrado de desarrollo para PHP, denominado Delphi for PHP. También existen al menos un par de módulos1 para Eclipse, uno de los IDE más populares.

Internet Protocol

Internet Protocol (IP)
Familia: Familia de protocolos de Internet
Función: Envío de paquetes de datos tanto a nivel local como a través de redes.
Última versión: IPv6

Ubicación en la pila de protocolos
Aplicación http, ftp, …
Transporte TCP, UDP, …
Red IP
Enlace Ethernet, Token Ring,
FDDI, …

Estándares: RFC 791 (1981)
RFC 2460 (IPv6, 1998)

Internet Protocol (en español Protocolo de Internet) o IP es un protocolo no orientado a conexión usado tanto por el origen como por el destino para la comunicación de datos a través de una red de paquetes conmutados no fiable de mejor entrega posible sin garantias.

Los datos en una red basada en IP son enviados en bloques conocidos como paquetes o datagramas (en el protocolo IP estos términos se suelen usar indistintamente). En particular, en IP no se necesita ninguna configuración antes de que un equipo intente enviar paquetes a otro con el que no se había comunicado antes.

IP provee un servicio de datagramas no fiable (también llamado del mejor esfuerzo (best effort), lo hará lo mejor posible pero garantizando poco). IP no provee ningún mecanismo para determinar si un paquete alcanza o no su destino y únicamente proporciona seguridad (mediante checksums o sumas de comprobación) de sus cabeceras y no de los datos transmitidos. Por ejemplo, al no garantizar nada sobre la recepción del paquete, éste podría llegar dañado, en otro orden con respecto a otros paquetes, duplicado o simplemente no llegar. Si se necesita fiabilidad, ésta es proporcionada por los protocolos de la capa de transporte, como TCP.

Si la información a transmitir (“datagramas”) supera el tamaño máximo “negociado” (MTU) en el tramo de red por el que va a circular podrá ser dividida en paquetes más pequeños, y reensamblada luego cuando sea necesario. Estos fragmentos podrán ir cada uno por un camino diferente dependiendo de como estén de congestionadas las rutas en cada momento.

Las cabeceras IP contienen las direcciones de las máquinas de origen y destino (direcciones IP), direcciones que serán usadas por los enrutadores (routers) para decidir el tramo de red por el que reenviarán los paquetes.

El IP es el elemento común en la Internet de hoy. El actual y más popular protocolo de red es IPv4. IPv6 es el sucesor propuesto de IPv4; poco a poco Internet está agotando las direcciones disponibles por lo que IPv6 utiliza direcciones de fuente y destino de 128 bits (lo cual asigna a cada milímetro cuadrado de la superficie de la Tierra la colosal cifra de 670.000 millones de direcciones IP), muchas más direcciones que las que provee IPv4 con 32 bits. Las versiones de la 0 a la 3 están reservadas o no fueron usadas. La versión 5 fue usada para un protocolo experimental. Otros números han sido asignados, usualmente para protocolos experimentales, pero no han sido muy extendidos.

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicasheterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o “la Web”), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP yP2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión(IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.

El género de la palabra Internet es ambiguo, según el Diccionario de la Real Academia Española.

Historia

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.


  • 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
  • 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma “transparente” para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de “Internet”, que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
  • 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
  • 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico (“backbone”) de Internet.
  • 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

  • 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.

 

En el colegio San Jose La Salle es una tradición la semana cultural, se realiza todos los años, pero esta tendra algo de especial que se realizara cuando el colegio cumple 100 años de historia, asi todos quedan cordialmente invitados! 🙂 🙂 🙂