lunes, 1 de junio de 2015

Resumen capítulos 5 y 6, tarea #3


Introducción:

El siguiente ensayo contiene los capítulos 5 y 6 del libro Sistemas de Información Gerencial de Kenneth C. Laudon.
Analizaremos ¿qué es una infraestructura de TI?, las tendencias de las plataformas tanto de software como de hardware contemporáneas, además veremos la metodología y uso de las bases de datos, cómo ayudan para mejorar el desempeño y para la toma decisiones.
Finalmente veremos todo lo correspondiente a  la administración de los recursos de datos.

Desarrollo:

Capítulo 5

Infraestructura de TI y tecnologías emergentes

La infraestructura de TI consiste en un conjunto de dispositivos físicos y aplicaciones de software requeridas para operar toda la empresa. Sin embargo esta infraestructura también es un conjunto de servicios a nivel empresarial presupuestado por la gerencia que abarca capacidades tanto humanas como técnicas. Estos servicios son:

  • Plataformas computacionales.
  • Servicios de telecomunicaciones.
  • Servicios de gestión de datos.
  • Servicios de software de aplicación.
  • Servicios de administración de instalaciones físicas.
  • Servicios de gestión de TI.
  • Entre otros.
Evolución de la infraestructura de TI: Han transcurrido cinco etapas en esta evolución, cada una de las cuales representa una distinta configuración de poder de computo y elementos de la infraestructura. Las cinco etapas son:
  1. Era de las mainframes y minicomputadoras de propósito general (1959) a la fecha: Fue un periodo de computación con alto grado de centralización bajo el control de programadores y operadores de sistemas profesionales en donde la mayoría de los elementos de la infraestructura los proveía un solo distribuidor, el fabricante del hardware y del software.
  2. Era de la computadora personal (1981 a la fecha): La proliferación de las PCs en la década de 1980 y a principios de los 90s desató un torrente de herramientas de software personales de productividad de escritorio que fueron muy valiosos para los usuarios tanto domésticos como corporativos. Estas PCs eran sistemas independientes hasta que el software de sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes.
  3. Era cliente/servidor (1983 a la fecha): La computación cliente/servidor permite a las empresas distribuir el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que cuestan mucho menos que las minicomputadoras o sistemas mainframe centralizados. El resultado es una explosión en el poder de cómputo y las aplicaciones en toda la empresa.
  4. Era de computación empresarial (1992 a la fecha): Cuando Internet se desarrolló para convertirse en un entorno de comunicaciones de confianza después de 1995, las empresas de negocios empezaron a utilizar en serio el estándar de redes Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) para enlazar sus redes dispares.
  5. Era de la computación en la nube y móvil (2000 a la fecha): El poder cada vez mayor del ancho de banda de Internet ha impulsado el avance el modelo cliente/servidor, hacia lo que se conoce como modelo de computación en la nube.
Impulsores tecnológicos en la evolución de la infraestructura: Desarrollos más importantes:


  • La ley de Moore y el poder de los microprocesadores: Gordon Moore uno de los primeros fabricantes de circuitos integrados, escribió que desde la introducción del primer chip micropocesador  en 1959, el número de componentes de un chip con los menores costos de fabricación por componente se había duplicado cada año.
  • Ley de almacenamiento digital masivo: El mundo produce hasta 5 exabytes de información única al año. En términos generales, la cantidad de información digital se duplica cada año.
  • La ley de Metcalfe y la economía de red: Los rendimientos crecientes con respecto a la escala que reciben los miembros de la red, a medida que cada vez más personas se unen a esta.
  • Reducción en los costos de las comunicaciones e Internet: Se estima que en la actualidad 1.8 mil millones de personas en todo el mundo tienen acceso a Internet. A medida que disminuyen los costos de comunicación y llegan a una cifra muy pequeña que se acerca a 0, aumenta en forma explosiva el uso de las herramientas de comunicaciones y computación.
Componentes de la infraestructura: En la actualidad, la infraestructura de TI, está compuesta de siete componentes principales:

  1. Plataforma de hardware de computadora: Involucra tanto máquinas de cliente (PC de escritorio, y netbook y laptop) como máquinas de servidor. El mercado de hardware de computadora se enfoca cada vez más en las principales empresas como IBM, HP, DELL, Sun Mycrosistems y en tres productores de chips INTEL, AMD e IBM.
  2. Plataformas de sistemas operativos: En 2010 Microsoft Windows se apoderó cerca del 75% del mercado de sistemas operativos de servidor. A nivel cliente, el 90% de las PCs usan alguna forma de sistema operativo de Microsoft Windows, sin embargo ahora una variedad mucho mayor de sistemas operativos (Chrome OS, Android, IOS).
  3. Aplicaciones de software empresariales: El software para aplicaciones empresariales se tratan como componentes de la infraestructura de TI. Los proveedores más importantes de software de aplicaciones empresariales son: SAP y Oracle.
  4. Administración y almacenamiento de datos: El software de gestión de base de datos empresariales es responsable de organizar y administrar la información de la empresa, de modo que sea posible acceder a ella y utilizarla de forma eficiente.
  5. Plataformas de redes/telecomunicaciones: Windows server se utiliza de manera predominante como sistema operativo de red de área local seguido por Linux y Unix. Los proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent, Nortel y Juniper Networks.
  6. Plataformas de Internet: Las plataformas de Internet se traslapan y deben estar relacionadas con la infraestructura de redes general de la empresa, además de sus plataformas de hardware y software. Un servicio de hospedaje web, mantiene a un servidor Web grande o una serie de servidores, además de proporcionar espacio a los suscriptores que pagan una cuota para mantener sus sitios web.
  7. Servicios de consultoría e integración de sistemas: En la actualidad, ni siquiera una gran empresa tiene el personal, las habilidades, el presupuesto o la experiencia necesaria para implementar o mantener toda su infraestructura de TI. Las empresas líderes en consultoría que proveen esta experiencia son: Accenture, IBM Global Services, HP Enterprise Services, Infosys y Wipro Technologies.
Tendencias de las plataformas de hardware contemporáneas: 

  1. Plataforma digital móvil emergente: En unos cuantos años los teléfonos inteligentes, las computadoras tipo tablet serán los principales medios para acceder a Internet, cada vez más funciones de la computación empresarial pasarán de las PCs y los equipos de escritorio, a estos dispositivos móviles.
  2. Computación en malla: Se refiere al proceso de conectar computadoras separadas por límites geográficos en una sola red para crear una supercomputadora virtual, al combinar el poder computacional de todas las computadoras en malla.
  3. Virtualización: Es el proceso de presentar un conjunto de recursos de computo de modo que se pueda acceder a todos ellos de formas que no estén restringidas por la configuración física o la ubicación geográfica. La virtualización hace posible que una compañía maneje su procesamiento y almacenamiento computacional mediante el uso de los recursos de cómputo alojados en ubicaciones remotas.
  4. Computación en la nube: El Instituto Nacional Estadounidense de Estándares y tecnología define la computación en la nube con las siguientes características:
  • Autoservicio bajo demanda.
  • Acceso ubicuo a la red.
  • Agrupamiento de recursos independiente de la ubicación.
  • Elasticidad rápida.
  • Servicio medio: los cargos por los recursos de la nube se basan en la cantidad de recursos utilizados.
La computación en la nube consiste en tres tipos distintos de servicios;
  • Infraestructura en la nube como un servicio: Los clientes utilizan el procesamiento, el almacenamiento, la conexión de red y otros recursos de cómputo de los proveedores de servicio en la nube para operar sus sistemas de información.
  • Plataforma en la nube como un servicio: Los clientes usan la infraestructura y las herramientas de programación hospedadas por el proveedor de servicios para desarrollar sus propias aplicaciones. 
  • Software en la nube como un servicio: Los clientes usan el software que el distribuidor aloja en su hardware y ofrece a través de una red (Google Apps.).
Una nube puede ser privada (red propietaria o un centro de datos que enlaza servidores, redes y datos como un conjunto de servicios virtualizados que los usuarios comparten dentro de una compañía) o puede ser pública (se mantiene a través de un proveedor de servicio externo como Amazon Web Services).
5. Computación Verde: Prácticas y tecnologías para diseñar, fabricar, usar y disponer de
computadoras, servidores y dispositivos asociados para minimizar el impacto sobre el entorno.
          6. Computación Autonómica: Es un esfuerzo a nivel industrial por desarrollar sistemas que su puedan configurar, optimizar, ajustar, arreglarse por sí solos y protegerse de los intrusos externos.
7. Procesadores de alto rendimiento y ahorro de energía.
Tendencias de plataformas de software contemporáneas: 

Linux y el software de código de fuente abierto:  el software de código abierto, es un software producido por una comunidad de varios cientos de miles de programadores en todo el mundo. El software de código abierto más popular es el Linux, sus aplicaciones están incrustadas en teléfonos celulares, teléfonos inteligentes, netbook y productos electrónicos para el consumidor.

Software para web Java y Ajax: El software de Java está diseñado para ejecutarse en cualquier computadora o dispositivo de cómputo. Los desarrolladores de Java pueden crear pequeños programas en forma de applets, que se incrustan en las páginas web y se descargan para ejecutarlos en un navegador web.
Ajax permite que un cliente y un servidor intercambien pequeñas piezas de datos de modo que no haya que volver a cargar toda una página web cada vez que el usuario solicite una modificación.

Los servicios Web y la arquitectura orientada a servicios:
La tecnología base para los servicios web es XLM que significa lenguaje de marcado extensible, el lenguaje de marcado de hipertexto (HTML) es un lenguaje de descripción de páginas para especificar cómo se deben colocar el texto, los gráficos, el video y el sonido en un documento de página web.

Outsourcing de software y servicios en la nube.
Existen tres fuentes externas para el software:

  1. Paquetes de software y software empresarial: Un paquete de software es un conjunto de programas listo para usarse y disponible en forma comercial, que elimina la necesidad de que una empresa escriba sus propios programas para ciertas funciones.
  2. Outsourcing de software: Permite que una empresa contrate el desarrollo de software personalizado o el mantenimiento de los programas heredados existentes con empresas externas que por lo común operan en el extranjero.
  3. Servicios y herramientas de software basados en la nube: Se aloja en poderosos servidores dentro de centros de datos masivos y se pueden acceder a este mediante una conexión a Internet y a un navegador Web estándar. 

Cómo lidiar con el cambio de plataforma e infraestructura

Las empresas que utilicen plataformas de computación móvil y computación en la nube requerirán nuevas políticas.

Modelo de fuerzas competitivas para la inversión en infraestructura de la TI


  • Demanda en el mercado por los servicios de su empresa.
  • Estrategia de negocios de su empresa.
  • Estrategia, infraestructura y costo de TI de su empresa.
  • Evaluación de la tecnología de la información.
  • Servicios de las empresas competidoras.
  • Inversiones en infraestructura de TI de las empresas competidoras.



Capítulo 6

Organización de los datos en un entorno de archivos tradicional:

Un sistema de información efectivo, provee a los usuarios, información oportuna (disponible para los encargados de la toma de decisiones), precisa (libre de errores) o relevante (útil y apropiada tanto para los tipos de trabajo como para las decisiones que se requieren).

Términos y conceptos de la organización de archivos

  • Bit: Unidad más pequeña de datos de una computadora, un grupo de bits denominados Byte representa un sólo caracter (ejemplo una letra).
  • Campo: Conjunto de palabras (ejemplo el nombre de una persona).
  • Registro: Grupo de campos (ejemplo nombre, edad y dirección).
  • Archivos: Grupo de registros.
Problemas con el entorno de archivos tradicional:
  1. Redundancia e inconsistencia de datos: Presencia de datos duplicados en varios archivos.
  2. Dependencia programa-datos: En un entorno de archivos tradicional, cualquier cambio en un programa de software podría requerir un cambio en los datos a los que accede ese programa.
  3. Falta de flexibilidad: Tal vez varios programadores tengan que trabajar durante semanas para reunir los elementos de datos requeridos en un nuevo archivo.
  4. Seguridad defectuosa.
  5. Falta de compartación y disponibilidad de datos.
Sistema de administración de base de datos (DBMS):
Es un software que permite a una organización centralizar los datos, administrarlos de forma eficiente, y proveer acceso a los datos almacenados mediante programas de aplicación. 
El DBMS libera al programador o al usuario final de la tarea de comprender en dónde y cómo están almacenados los datos en realidad, también reduce la redundancia de los datos al minimizar los archivos aislados en los que se repite los mismos datos. Un DBMS permite a la organización administrar los datos, su uso y su seguridad en forma central.
Los de DBMS contemporáneos utilizan distintos modelos de bases de datos para llevar el registro de las entidades, atributos y relaciones, actualmente el DBMS mas utilizado es el DBMS RELACIONAL (ejemplo SQL).
Las tablas de las bases de datos relacionales, se pueden combinar con facilidad para ofrecer datos requeridos por los usuarios, siempre y cuando dos tablas compartan un elemento de datos común.
Un DBMS orientado a objetivos, almacena los datos y los procedimientos que actúan sobre esos datos como objetos que se pueden recuperar y compartir de manera automática.
Los DBMS tienen una capacidad de definición de datos para especificar la estructura del contenido de la base de datos. Esta información sobre la base de datos, se puede documentar en un diccionario de datos, el cual es un archivo automatizado o manual que almacena las definiciones de los elementos de datos y sus características.
La mayoría de los DBMS tienen un lenguaje especializado como lenguaje de manipulación de datos, el cual se utiliza para agregar, modificar, eliminar y recuperar los datos en la base.

Diseño de bases de datos
Para crear una base de datos, hay que comprender las relaciones entre la información, el tipo de datos que se mantendrá en la base, como se utilizará y la forma en que tendrá que cambiar la organización para administrarlos desde una perspectiva a nivel de toda  la compañía.

Para usar un modelo de base de datos relacional de forma efectiva, hay que optimizar los agrupamientos complejos de datos para minimizar los elementos de datos redundantes. El proceso de crear estructuras de datos pequeñas y estable pero a la vez flexibles y adaptivas a partir un complejo grupo de datos se denomina "normalización".

Los sistemas de bases de datos racionales tratan de cumplir reglas de integridad referencial para asegurar que las relaciones entre las tablas acopladas permanezcan consistentes.

Uso de bases de datos para mejorar el desempeño de negocios y la toma de decisiones

En una compañía grande, con bases de datos o sistemas extensos para funciones separadas como manufactura, ventas y contabilidad, se requieren capacidades y herramientas especiales para analizar enormes cantidades de datos y acceder a los datos de múltiples sistemas. Estas capacidades incluyen:

  • Almacén de datos: Es una base de datos que almacena la información actual e histórica de interés potencial para los encargados de tomar decisiones  en la compañía.
  • Mercado de datos: Es un subconjunto de un almacén de datos, en el cual se coloca una porción con alto grado de enfoque en los datos de la organización con una base de datos separada para una población específica de usuarios.
  • Herramientas para la inteligencia de negocios: Incluyen:
  1. Procesamiento analítico en línea (OLAP): Es una análisis de datos multidimensional, el cual permite a los usuarios ver los mismos datos de distintas formas mediante el uso de varias dimensiones, cada aspecto de información (producto, precio, costo, etc) representa una dimensión distinta.
  2. Minería de datos: Provee perspectivas hacia los datos corporativos que no se pueden obtener mediante OLAP, al encontrar patrones y relaciones ocultas en las bases de datos grandes e inferir reglas a partir de estos patrones. Los tipos de información que se pueden obtener  de la minería de datos son:
*Las Asociaciones: Ocurrencias vinculadas a un solo evento.
*Secuencias: Eventos vinculados en el transcurso del tiempo.
*Clasificación: Reconoce a los patrones que describe el grupo al que pertenece un elemento.
*Agrupamiento: Funciona de una manera similar a la clasificación aún cuando no se han definido grupos.
*Pronósticos: Se basa en una serie de valores para pronosticar cuáles serán los otros valores. 

Administración de los recursos de datos:

Fortalecimiento de una política de información: Una política de información es la que especifica las reglas de la organización para compartir, diseminar, adquirir, estandarizar, clasificar e inventariar la información, establece procedimientos y rendiciones de cuentas específicos.
La administración de datos, es la responsable de las políticas y procedimientos específicos a través de los cuales se pueden administrar los datos como un recurso organizacional.

Aseguramiento de la calidad de datos: Si una base de datos está diseñada en forma apropiada y hay estándares de datos establecidos a nivel empresarial, los elementos de datos duplicados o inconsistentes deben reducirse al mínimo. Con frecuencia, el análisis de calidad de datos empieza con una Auditoria de Calidad de Datos, la cual es una encuesta estructurada de la precisión y el nivel de su integridad en un sistema de información.
La limpieza de datos, consiste en actividades para determinar y corregir datos en una base que sean incorrectos, incompletos, que tengan un formato inapropiado o que sean redundantes.



Conclusión:
Después de leer y analizar los capítulos 5 y 6, se tiene mas claridad sobre la infraestructura de la TI, las tendencias actuales de las plataformas y todo lo concerniente con la administración de las bases de datos.

Bibliografía:
Laudon, Kenneth C. y Laudon, Jane P. (2012). Sistemas de Información Gerencial. Décimo segunda edición, México, 2012; Pearson.