SciELO - Scientific Electronic Library Online

 
vol.10 número40Ciencia, Tecnología y  UniversidadLa prevención de la contaminación industrial como asignatura para la formación ambiental universitaria índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

Compartilhar


Universidad, Ciencia y Tecnología

versão impressa ISSN 1316-4821versão On-line ISSN 2542-3401

uct v.10 n.40 Puerto Ordaz set. 2006

 

Localización de facilidades con diferentes requerimientos de área aplicando métodos evolutivos

Yllada García, Ruth A. Maneiro Malavé, Ninoska

Centro de Estudios de Corrosión y Nuevos Materiales, Dpto. Ingeniería Metalúrgica UNEXPO, Puerto Ordaz.

MSc. Ruth A. Yllada García y la Dra. Ninoska Maneiro Malavé: Profesoras Asociadas en la Escuela de Ingeniería Industrial de la Facultad de Ingeniería, Universidad de Carabobo, Av. Universidad, Bárbula, CP. 2005, Valencia, Venezuela, telef. 0414-4219917, 0416-8413832, Fax 0241-8672843, correos electrónicos ryllada@uc.edu.ve y nmaneiro@uc.edu.ve respectivamente.

Resumen

Este trabajo presenta un algoritmo evolutivo para localizar las facilidades de una empresa productora de envases de aluminio, que requieren áreas de diferente tamaño para su adecuado funcionamiento. La localización de facilidades es un problema muy conocido de optimización combinatoria, lo que hace difícil su tratamiento por métodos convencionales, especialmente cuando el tamaño del problema crece, lo que torna improbable una evaluación de todas las soluciones. Una amplia bibliografía sobre los problemas de localización de facilidades ha demostrado la utilidad de los algoritmos evolutivos para solucionar problemas en los que se requiera explorar grandes espacios de soluciones, proporcionando soluciones de calidad en un tiempo de computación aceptable. El algoritmo propuesto suministra entre otros resultados la localización referencial de los departamentos y su distribución dentro del área disponible, proporcionando al analista un conjunto de posibles soluciones entre las que puede escoger aquella que mejore el manejo de materiales, disminuya los recorridos, elimine desperdicios y en consecuencia eleve la productividad de la empresa. Adicionalmente, se pudo comprobar la robustez del algoritmo ante el cambio de parámetros y excelente convergencia hacia mejores soluciones, aún en las últimas generaciones.

Palabras Clave: Algoritmo Evolutivo/ Distribución en Planta/ Localización de facilidades/ Requerimientos de área.

Facility layout with different area requirements applying evolutionary methods

Abstract

This work presents an evolutionary algorithm for locating facilities in an aluminum container production factory, which requires different size areas for their appropriate performance. The location of facilities is a well-known combinatory optimization problem making difficult its treatment by conventional solution methods, especially for large scale problems, which turns impractical an evaluation of all the solutions. Previous works have shown that the evolutionary algorithms are an efficient and useful tool for solving problems where is requires to explore large scale solution spaces, providing good solutions in an acceptable computing time. The proposed algorithm produces, among other results, a set of facility layouts for choosing the one which improves material handling, reduces scrap, and consequently improves the all processing and productivity. Finally, it is shown the algorithm robustness to parameters changing and its excellent convergence to better solutions even in the last generations.

Keywords: Area Requirements/ Evolutionary Algorithms/ Facility Location/ Layout.

Finalizado: 15/06/2005 Recibido: 13/07/2005 Aceptado: 16/03/2006

I. INTRODUCCIÓN.

Los problemas de localización y distribución de facilidades son estratégicos para el éxito de cualquier operación de manufactura. La principal razón es que los costos de manejo de materiales comprenden entre el 30 y el 75% de los costos totales de manufactura [1]. Una buena solución al problema de asignación de facilidades contribuye a la eficiencia total de las operaciones y una pobre distribución puede conducir a la acumulación de inventario de productos en proceso, sobrecarga de los sistemas de manejo de materiales, puestas a punto ineficientes y largas colas [2].1

Esta clase de problemas se caracteriza porque su espacio de soluciones crece en forma combinatoria a medida que aumenta el número de departamentos y/o equipos que se requieran ubicar, por lo que se hace necesario el uso de métodos heurísticos de búsqueda que proporcionen soluciones de calidad en forma rápida y satisfactoria en términos de costo computacional, especialmente en aquellos casos de asignación de áreas diferentes para cada facilidad, ya que se incrementa el espacio de soluciones. De allí el incremento en el uso de técnicas evolutivas en los últimos años, como lo muestra la gran cantidad de trabajos reportados por la literatura especializada [3]. El presente trabajo muestra una aplicación de un Algoritmo Evolutivo realizado por Maneiro [4] en una fábrica de envases de aluminio en la que se van a localizar ocho departamentos que tienen diferentes requerimientos de área. Los resultados que se presentan, muestran la validez del enfoque evolutivo para la solución de esta clase de problemas.

II. DESARROLLO

1.Descripción del sistema y su problemática

Debido a los requerimientos de privacidad solicitados por la empresa, en esta descripción se omitirá su identificación y razón social. La referida empresa produce envases de aluminio, conformadas por bandejas y tapas que tienen como propósito principal contener y resguardar las comidas de agentes externos contaminantes. Esta empresa tiene la particularidad de no contar con un área disponible uniforme, ya que usa tres zonas en las que anteriormente existían otros procesos y que actualmente se encuentran en desuso. En la Tabla I, se muestra la cantidad de área disponible en metros cuadrados en cada zona.

El proceso de producción se representa en la Figura 1 usando un diagrama de bloque, en el que se ilustra la secuencia de operaciones y dirección del flujo de los materiales a través de las diferentes facilidades y/o estaciones de trabajo.

Figura 1. Diagrama de bloque del proceso de elaboración de envases de aluminio

Tal como se puede observar, existen ocho departamentos a ubicar, pero como los requerimientos de área de cada facilidad son diferentes, es necesario establecer un área cuadrada básica (30 m2) sobre la cual pueda asignarse un número de cuadrados diferentes a cada departamento de acuerdo con sus requerimientos; es así como se obtuvieron los datos de asignación reflejados en la Tabla II.

Con dicha selección, el problema se convierte en uno de 18 cuadros que serán asignados a 18 localidades factibles, aumentando las alternativas de solución a 18! (6,40*1015).

2. Formulación del problema general de localización de facilidades

Se entiende por facilidad, cualquier recurso físico necesario para que un individuo, ente u organización satisfaga una necesidad. El problema básico es la asignación de dichas facilidades a sitios o lugares disponibles [5]. En los problemas de localización, como el planteado, el objetivo es encontrar la asignación óptima de n facilidades (plantas, departamentos o maquinarias) a n sitios, con el fin de minimizar el costo total de manejo de materiales expresado como el producto del flujo de trabajo y la distancia recorrida o simplemente la distancia. Un Problema de Asignación de Facilidades puede ser formulado de la siguiente manera. Sea

y sea dikjh, la distancia entre las facilidades i y j localizadas en los sitios k y h, respectivamente, entonces el modelo general de localización de facilidades puede plantearse como en la ecuación (2).

3. Algoritmos evolutivos

En forma general, los algoritmos evolutivos son técnicas de solución que imitan la evolución de los individuos. La evolución se produce por dos procesos: la selección y la alteración genética de los cromosomas que almacenan las características del individuo o solución. Este último proceso tiene lugar durante la reproducción de los individuos, o cuando éstos sufren algún tipo de mutación. En la fase de selección, aquellos individuos más adaptados al medio sobreviven; en la reproducción, los individuos intercambian material cromosómico y durante la mutación, se altera parte de la información de los cromosomas [6]. Para utilizar las ventajas del proceso evolutivo en la resolución de un problema de optimización, deben hacerse las siguientes consideraciones (Ver Figura 2):

Figura 2. Estructura de un algoritmo evolutivo

  • Es necesario una apropiada codificación de las soluciones del problema que permita usar indistintamente los términos de solución, codificación, cromosoma e individuo.

  • La adecuación de cada solución será una medida de su comportamiento en el problema particular considerado.

  • Se definirán operadores genéticos que al alterar genéticamente los cromosomas de una o varias soluciones generen otras.

4. Metodología de los algoritmos evolutivos

El algoritmo desarrollado necesita para su correcto funcionamiento la introducción de los datos en cinco matrices, una de las cuales pertenece a los parámetros evolutivos, dos contienen información necesaria para el cálculo de la función objetivo y las dos últimas son utilizadas para presentar, en forma de construcción analógica, la localización definitiva.

4.1 Parámetros del algoritmo

La Matriz Entrada contiene las probabilidades de cruce y mutación, el número de generaciones, y el tamaño de la población. En esta matriz y basado en investigaciones realizadas por Maneiro [7], se establecen los siguientes valores para este estudio: Pcruce= 0.85, Pmutación = 0.25, Nº Generaciones = 5000, Tamaño de la población = 60

4.2. Representación de los cromosomas o individuos

Se utilizan dos tipos de representación de los cromosomas, una de permutaciones de m elementos, que el algoritmo usa para los cálculos, y otro de presentación de resultados. La primera, asume que las facilidades se numeran 1, 2,..., 18 y sus localizaciones pueden representarse usando las permutaciones de 18 elementos. Así, una asignación solución se representa como a=[a1, a2,..., a18], donde ai aj para ij, ai {1, 2,..., 18} y la facilidad ak está localizada en el sitio k, que se ilustra para cuatro localidades en la Figura 3.

Figura 3. Representación para un problema de asignación de cuatro facilidades

La segunda es la Matriz Localidad.. Con ella se informa –más gráficamente- dónde se encuentran las localizaciones (Ver Figura 4).

La nomenclatura utilizada es la siguiente:

(-1): localidades ocupadas, en la que la asignación de otra facilidad es imposible.

(-2): localidad asignada a una facilidad previamente establecida, inamovible y que tiene relación directa con el proceso estudiado.

(1, 2, 3...): los números enteros positivos distintos de cero, se utilizan para indicar las posibles localidades para las diferentes facilidades a ubicar.

4.3. Evaluación

La evaluación de cada asignación se efectúa mediante el producto de la matriz de flujo por la matriz distancia. En la Matriz de Flujo, se establece la cantidad de viajes/día, Bs. por metro o cualquier otra unidad que permita medir bajo un mismo patrón, el flujo de materiales entre las facilidades. En la Figura 5, se muestra una sección de dicha matriz.

Figura 5. Matriz Flujo

En la Matriz Distancia se registra la longitud, de centro a centro, que existe entre los diferentes cuadros posibles para ubicar las facilidades; es decir, distancia entre las localidades, incluyendo aquellas facilidades que ya estén asignadas y sean inamovibles, tal es el caso del área de carga y descarga. En la Figura 6 se muestra una parte de la matriz.

Figura 6. Matriz Distancia

La función de evaluación C(a), puede ser calculada como el producto de la matriz distancia d(a) asociada a la asignación a y la matriz de flujo f mediante la siguiente ecuación

El algoritmo necesita una matriz adicional, que especifique cuántos cuadros debe asignar a cada departamento y permite la construcción analógica de la localización definitiva que es la Matriz Requerimiento, como se ilustra en la Figura 7.

4.4. Población inicial

Los individuos de la población inicial fueron producidos mediante la generación de permutaciones aleatorias de 18 elementos, para una población 60, reiniciándose en cada nueva ejecución del algoritmo.

4.5. Selección

La selección de individuos para aplicar los operadores genéticos se hizo aplicando el método de la ruleta [6][8][9], cuyos sectores tienen un tamaño de acuerdo con la aptitud de los cromosomas de la población porque mientras mayor aptitud, más oportunidad tiene el cromosoma de ser escogido. Esta selección se combinó con una estrategia elitista (Fig.8), que preserva al mejor individuo de la generación actual, reemplazando al peor de la siguiente.

Figura 8. Estrategia elitista. Mantener el mejor para la próxima generación

4.6. Cruce y mutación

El operador de cruce es el propuesto en [10], que mantiene en el descendiente las asignaciones comunes de los padres, asignando al azar el resto de los sitios, como se muestra en la Figura 9. Sin embargo, cuando ambos padres son iguales, esta clase de cruce originaría un descendiente idéntico, por lo que para garantizar el cruce de los individuos se aplica el clásico cruce en un punto [6] [8] [9], que se presenta en la Figura 10.

 

El operador de mutación es el de intercambio de dos elementos [8] [9], ilustrado en la Figura 11. Ambos operadores, cruce y mutación, se aplican a un cromosoma seleccionado aleatoriamente, asignando más peso a los individuos de mayor aptitud.

Figura 11. Operador de mutación de intercambio de dos elementos

Una vez desarrollado, el algoritmo fue ejecutado en múltiples ocasiones con el fin de aprovechar su carácter estocástico, ya que para cada nueva ejecución se inicializa una nueva semilla, que puede resultar en obtener una mejor población inicial y, por ende, mejores soluciones.

5. Resultados y Discusión de Resultados

Tras el análisis de las diez primeras corridas del algoritmo, únicamente se catalogaron tres alternativas como factibles. Con la finalidad de aumentar la población de soluciones, se decidió penalizar a los cuadros de asignación de la zona Z con la cantidad equivalente a 2 pasos. La penalización es frecuentemente utilizada en optimización con restricciones con el fin de manejar soluciones infactibles [8] [9]. Tal como comenta Michalewicz [9]: “la mayor pregunta es, ¿como debería diseñarse una función de penalización? […] la penalización debe ser mantenida lo más baja posible, justo por encima del límite debajo del cual las soluciones infactibles son óptimas”. Por lo tanto, se decide experimentar con diversos valores de penalización para encontrar el número de pasos apropiado, con la finalidad de que el algoritmo enfoque la búsqueda de las soluciones hacia aquellas que asignen las facilidades en una misma área disponible, pretendiendo a su vez que el cambio generado fuese el mínimo necesario para alcanzar resultados satisfactorios. Luego se ejecutó el algoritmo (10 veces), y se aplicó un análisis de factibilidad de las propuestas, obteniéndose el resultado que se muestra en la Tabla III.

* CA: Con ampliación ** SA: Sin ampliación

Al seleccionar la mejor entre ellas se presenta el problema de que cinco de las alternativas factibles fueron obtenidas tras la penalización de la matriz distancia, por lo que no se puede realizar una comparación directa de la función objetivo con las tres propuestas iniciales. Por esta razón, se evaluaron las dos mejores alternativas (con y sin penalización), usando la misma matriz distancia. De esta forma, se obtuvo una distribución propuesta por el algoritmo la cual se refleja en la matriz de la Figura 12 y se observa mejor en la Figura 13. Es importante destacar que se consideró factible cualquier alternativa que implicara una ampliación menor a 20 m2, criterio establecido por los representantes de la empresa; sin esta limitante habrían más soluciones factibles pero serían más costosas. Con la solución propuesta se requiere una pequeña ampliación, equivalente a 18 m2 en la zona Y.

Por otro lado, puede observarse que entre las propuestas mostradas anteriormente, se encuentran dos que no necesitan de ampliación para su instalación, pero en este caso los respectivos valores de la función objetivo son ligeramente mayores (1%) que la mejor solución obtenida, lo que deja a criterio de los representantes de la empresa la selección final de la distribución definitiva, en términos de costos y ventajas operativas. Para ello se requiere también analizar aquella información que deviene de la comparación de su distribución actual con la propuesta por el algoritmo. En la Figura 14, se muestra la matriz localidad que describe la distribución actual de la empresa y basándose en ella, se determinó el valor de la función objetivo, que resultó ser un 50% más elevada que la propuesta por el algoritmo. Este aspecto es de especial de relevancia, ya que la empresa ahora cuenta con una propuesta de distribución que reduce drásticamente sus costos de manejo, con recorridos menores, facilitando así el flujo de los materiales y sus operaciones.

De acuerdo con lo determinado en [7] para esta clase de problemas, se tomaron como parámetros fijos el número de generaciones y el tamaño de la población, siendo éstos 5000 generaciones y 60 individuos, respectivamente. En cuanto a los parámetros de cruce y mutación, se realizaron 20 ejecuciones de cada combinación, con diferentes secuencias de números pseudo-aleatorios, tomándose como solución el mínimo valor obtenido en las 20 ejecuciones. La Tabla IV muestra dichos valores para las diferentes combinaciones de cruce y mutación empleadas. La combinación 0.75-0.25 en cruce/mutación es la que proporciona el mejor valor, seguida por la 0.5-0.5. Una vez escogidas las mejores soluciones, se tomó el mejor valor de cada generación (20 ejecuciones) y se obtuvo un promedio por generación.

En la Figura 15 se muestra la convergencia de estos promedios para las dos combinaciones de Cruce-Mutación que proporcionaron los valores más pequeños; puede observarse la convergencia del algoritmo para el promedio de los valores de todas sus ejecuciones del, mostrando su comportamiento evolutivo al producir cada vez mejores individuos, lográndose excelentes soluciones. Es importante destacar que este comportamiento se observó en todas las combinaciones estudiadas.

Los resultados de la Tabla IV, muestran –además- que el algoritmo sigue tendiendo hacia mejores soluciones hasta las últimas generaciones.

Se hicieron pruebas incrementando el número de generaciones a 7000, para tratar de obtener mejores soluciones, pero los resultados permiten concluir que no se obtienen valores sustancialmente mejores al incrementar el número de generaciones, como lo muestra la Tabla V. Este comportamiento se observa también entre valores de diferentes ejecuciones, independientemente de la combinación cruce/mutación utilizada.

Asimismo, el análisis estadístico realizado de los mejores individuos obtenidos en 100 ejecuciones, utilizando el software estadístico BESTFIT y la prueba de Anderson-Darling, indica que el modelo de la Inversa Normal (llamada también Distribución de Wald), con valor de prueba igual a 1.893, es el que mejor se ajusta a los datos, como lo muestra la Figura 16. El valor modal (53012,6) es menor que la mediana (53241,5) y la media, lo que indica que la distribución de los mejores individuos tiende a agruparse hacia los valores menores. La media y la desviación estándar de los datos fueron 53946.215 y 1412.843, respectivamente, y con ellas se calculó el valor del Coeficiente de Variación de los datos (CV), definido como el cociente entre la desviación estándar y la media aritmética. En el caso de estudio el CV tiene un valor de 0.0262, indicando homogeneidad en los valores obtenidos, lo cual apoya el valor de 2.26% de diferencia entre la mejor solución y el promedio de las mejores soluciones.

Figura 16. Ajuste de los datos del mejor individuo para 100 corridas

El análisis estadístico de los datos es importante para evaluar el comportamiento de las soluciones proporcionadas por el algoritmo; el estudio del valor promedio y la distribución de los datos del mejor individuo, reforzó las conclusiones obtenidas de las gráficas de convergencia. No obstante, no debe olvidarse el punto de vista industrial al analizar este problema y señalar que el promedio de las mejores soluciones, que suele recomendarse como valor solución, no coincide con ningún valor de las corridas y no tiene asociada ninguna localización que aporte una solución, razón por la que se escogió el menor valor entre todas las ejecuciones como solución del problema.

III. CONCLUSIONES

1. El presente estudio logró establecer la mejor solución al problema de distribución de facilidades de una empresa productora de envases de aluminio para alimentos, reduciendo en 50% sus costos de manejo de materiales.

2. El algoritmo desarrollado permite generar soluciones factibles en una forma rápida, facilitando la toma de decisiones por parte del analista, quien escogerá la distribución más apropiada en términos de costo o restricciones de otro tipo.

3. El algoritmo utilizado converge adecuadamente hacia la solución en todos los casos, entre ejecuciones de un mismo conjunto de parámetros y para diferentes combinaciones de parámetros.

4. Se evidencia la calidad en las soluciones, tanto por la mínima diferencia entre ellas, como por los valores de las medidas de tendencia central obtenidas en el análisis estadístico.

5. El desarrollo de algoritmos evolutivos no está restringido a problemas de interés teórico computacional.

IV. REFERENCIAS

1. Chiang, W.C. y Chiang, C.: ”Intelligent Local Search Strategies for Solving Facility Layout Problems with the Quadratic Assignment Problem Formulation”. European Journal of Operational Research, 106, 1998, pág. 457-480.        [ Links ]

2. Jajodia, S., I. Minis, G. Harhalakis and J-M Proth, "CLASS: Computerized Layout Solutions Using Simulated Annealing," International Journal of Production Research, 30(1): 1992, pp. 95- 108.        [ Links ]

3. Alander, Jarmo: “An Indexed Bibliography of Genetic Algorithms in Manufacturing” Department of Information Technology and Production Economics. Helsinki, University of Vaasa. Report Series Nº 94-1-MANU, pp. 11-58, 1995        [ Links ]

4. Maneiro, Ninoska: “Algoritmos Genéticos Aplicados a Problemas de Localización de Facilidades. Caso de Estudio: Problema de Asignación Cuadrática de Facilidades”. Trabajo de Grado no publicado. Área de Estudios de Postgrado, Universidad de Carabobo, 2002, pp. 118-142.        [ Links ]

5. Francis, Richard L. y White, John A.: Facility Layout and Location. Englewood Cliffs, Prentice Hall, NJ., Capítulo 8, 1974, pp. 328-370.        [ Links ]

6. Moreno, Marcos y Moreno José: “Heurísticas en Optimización”. Colección Textos Universitarios. Gobierno de Canarias. Consejería de Educación, Cultura y Deportes- Dirección General de Universidades e Investigación, 1999, pág.73.        [ Links ]

7. Maneiro, Ninoska: “Algoritmo Evolutivo para Problemas Unidimensionales para Localización de Máquinas. Caso de Estudio: El Problema Generalizado de Flujo en Líneas”. Trabajo de Ascenso no publicado. Facultad de Ingeniería, Valencia Venezuela Universidad de Carabobo. 2002, pp. 71- 79.        [ Links ]

8. Goldberg, D: “Genetic Algorithms in Search, Optimization and Machine Learning” Addison-Wesley Longman 1989, 26th Printing, March 2004, pp. 12, 14, 85-86, 237,.        [ Links ]

9. Michaelewicz, Z: “Genetic Algorithms+Data Structures= Evolution Programs”. New York, Springer, 3erd. Ed., pp. 34, 76-80, 89-90, 260-262, 1.996.        [ Links ]

10. Tate, D.; Smith, A.: “A Genetic Approach to the Quadratic Assignment Problem”. Computers & Operations Research Vol. 22 (1) 1995, pp. 73-83.        [ Links ]^rND^sChiang^nW.C^rND^sChiang^nC^rND^sJajodia^nS^rND^nI^sMinis^rND^nG^sHarhalakis^rND^nJ-M^sProth^rND^sTate^nD^rND^sSmith^nA^rND^sChiang^nW.C^rND^sChiang^nC^rND^sJajodia^nS^rND^nI^sMinis^rND^nG^sHarhalakis^rND^nJ-M^sProth^rND^sTate^nD^rND^sSmith^nA^rND^1A01^sReyes Gil^nRosa^rND^1A02^sDe Souza^nAndrea^rND^1A02^sPetersen^nJan^rND^1A01^sReyes Gil^nRosa^rND^1A02^sDe Souza^nAndrea^rND^1A02^sPetersen^nJan^rND^1A01^sReyes Gil^nRosa^rND^1A02^sDe Souza^nAndrea^rND^1A02^sPetersen^nJan

Nota Técnica

La prevención de la contaminación industrial como asignatura para la formación ambiental universitaria

Reyes Gil, Rosa De Souza, Andrea Petersen, Jan

La Dra. Rosa Reyes Gil: Profesor Titular en el Dpto. de Biología de organismos, Universidad Simón Bolívar, Apartado Postal 89000, Caracas, Telef. 0212-9063046, correo electrónico rereyes@usb.ve.

Bach. Andrea De Souza y Jan Petersen: estudiantes de la Licenciatura en Biología, Dpto. de Biología de Organismos de la misma Universidad, mismo telefax, correos electrónicos andreadesousa@cantv.net. y janpetersen@cantv.net. Respectivamente.

Resumen

Es generalmente aceptado que la actividad industrial es la principal responsable de las emisiones atmosféricas, la producción de los desechos peligrosos, la generación de efluentes líquidos, así como de producir contaminación térmica y sónica. Siendo el hombre el principal modificador de su entorno, es necesario generar en él una actitud responsable respecto al tema de la contaminación. El curso “Prevención de la Contaminación Industrial”, asignatura electiva enmarcada en los programas de estudio de las diferentes carreras de la Universidad Simón Bolívar, busca suministrar a los futuros profesionales, las herramientas para entender y generar cambios en las políticas industriales de sus futuros centros de trabajo en relación con el ambiente. Este trabajo tiene como objetivo presentar el curso “Prevención de la Contaminación Industrial” como una propuesta a nivel universitario que conduce a la formación y sensibilización del futuro profesional en el problema de contaminación generado por los procesos industriales de los cuales formará parte en su futuro laboral. Incluye los principales objetivos que se pretenden obtener con este curso, los contenidos programáticos incluidos, así como las estrategias enseñanza-aprendizaje y de evaluación que se aplican. De igual modo, se presentan dos casos de estudio desarrollados por dos participantes del curso en su última edición del período abril-julio-2005.

Palabras clave: Contaminación Industrial/ Formación Ambiental/ Herramientas para la Prevención/ Prevención de la Contaminación/ Procesos Industriales.

Prevention of industrial pollution as a course for environmental development at university level

Abstract

It is generally accepted that the industrial activity is the main responsible for atmospheric emissions, production of dangerous wastes, generation of liquid effluents, as well as to produce thermal and sonic pollution. Man is the principal modifier of his environment, and it is necessary to generate a responsible attitude with respect to the environment. The course “Prevention of Industrial Pollution”, an elective course in the curricula of various programs of Universidad Simón Bolívar, seeks to offer to the future professionals the tools to understand and generate changes in the environmental policies of their future work centers in connection with the environment. The objective of this paper is to present the course “Prevention of Industrial Pollution” as a proposal at university level to lead to the development and self-consciousness regarding the contamination problem generated by the industrial processes that he will encounter in his professional future. It includes the main objectives that are intended to cover in this course, including the program contents, as well as the teaching-learning and assessment strategies that are applied. Also included are two case studies by two participants in the last issue of the course for the term April-July, 2005.

Keywords: Environmental Development/ Industrial Pollution/ Industrial Processes / Pollution Prevention/ Prevention Tools.

Finalizado: 17/11/2005 Recibido: 10/01/2006 Aceptado: 27/01/2006

I. INTRODUCCIÓN

Durante la mayor parte de la historia de la humanidad, en la cual las sociedades eran predominantemente rurales, la problemática ambiental se restringía a evitar los riesgos naturales. Con la revolución industrial se inicia un cambio sustancial en el tratamiento del ambiente, caracterizado por el aumento en la explotación de los recursos no renovables y la generación de residuos contaminantes de distinta naturaleza; todo ello aunado al incremento poblacional sostenido y al aumento de las necesidades humanas [1, 2, 3, 4, 5, 6].

Se hizo evidente que el ser humano tiene el poder de transformar, de innumerables maneras y a gran escala, todo cuanto lo rodea y, como consecuencia, ha venido desarrollando técnicas de producción intensivas que no consideran el impacto de estas actividades sobre el ambiente. En este contexto, no es de extrañar que los problemas de contaminación sean más evidentes a partir de la era industrial, momento a partir del cual se comenzaron a generar grandes cantidades de desechos a velocidades superiores a las que los ecosistemas son capaces de degradar. En efecto, está generalmente aceptado que la actividad industrial es la principal responsable de las emisiones atmosféricas, la producción de los desechos peligrosos, la generación de efluentes líquidos, así como de producir contaminación térmica y sónica [7, 8, 9, 10].

Los graves problemas generados por la contaminación como consecuencia del acelerado desarrollo industrial condujeron a que se cuestionara el modelo de crecimiento imperante y sus implicaciones en la degradación del ambiente y la afectación de los recursos naturales, generándose propuestas de diferente índole para su control [11, 12, 13, 14, 15, 16]. Entre las principales herramientas que se han propuesto para el control de la contaminación industrial y sus consecuencias se pueden citar herramientas legales, educativas, económicas, gerenciales y tecnológicas, entre otras [17, 18, 19, 20, 21, 22, 23].

Las medidas de alivio a la contaminación ambiental adoptadas tradicionalmente por el sector industrial, consistentes en una serie de instalaciones de adición al final de los procesos, han logrado mejoras relativamente rápidas. Sin embargo, desde la mitad de los años setenta también han sido reconocidas las limitaciones de estos métodos de “fin de tubería”, y la única solución posible al problema de los residuos ha sido la minimización de los mismos. Todo sistema de tratamiento de los residuos debería, por lo tanto, preocuparse sobre todo de reducir las cantidades de residuos producidos. Esto eliminaría la necesidad de tratar y disponer estos materiales [24, 25, 26, 27, 28, 29, 30].

Siendo el hombre el principal modificador de su entorno, es necesario generar en él una actitud responsable respecto al tema de la contaminación. Esta actitud personal, comprometida con la salud ambiental, es de suma importancia y debe propiciarse en el estudiante universitario de manera que pueda ser aplicada en su campo de trabajo a nivel profesional, propiciando su participación como actor activo en los procesos de cambio que se requieren con urgencia para la conservación y protección del ambiente. Como resultado de estos planteamientos, surgió la necesidad de ofrecer el curso “Prevención de la Contaminación Industrial”, el cual constituye una asignatura electiva enmarcada en los programas de estudio de las diferentes carreras de la Universidad Simón Bolívar y que busca suministrar a los futuros profesionales, las herramientas para entender y generar cambios en las políticas industriales de sus futuros centros de trabajo en relación con el medio ambiente.

Este trabajo tiene como objetivo presentar el curso “Prevención de la Contaminación Industrial” como una propuesta a nivel universitario que conduce a la formación y sensibilización del futuro profesional en el problema de contaminación generado por los procesos industriales de los cuales formará parte en su futuro laboral. Este curso se dicta desde el año 2000, una vez al año con una duración de doce (12) semanas durante el período lectivo abril-julio. A continuación se presentan los principales objetivos terminales que se pretenden obtener con este curso, los contenidos programáticos incluidos, así como las estrategias enseñanza-aprendizaje y de evaluación que se aplican. De igual modo, se presentan dos casos de estudio desarrollados por dos participantes del curso en su última edición del período abril-julio-2005.

I. DESARROLLO

1. Objetivos Generales y Específicos

Al finalizar este curso el estudiante dispondrá de los conocimientos relacionados con estrategias, técnicas y reglamentaciones que le permitirán identificar y controlar puntos críticos en las actividades y procesos industriales de su competencia, capaces de generar contaminación ambiental.

Para lograr este objetivo terminal se ejecutan las siguientes acciones:

1) Presentar y analizar los principales problemas ambientales generados por la industria venezolana.

2) Proporcionar los principios básicos relacionados con la prevención de la contaminación industrial, a saber: conceptos, técnicas, herramientas, incentivos y barreras.

3) Describir las principales técnicas propuestas para la prevención de la contaminación industrial.

4) Analizar diferentes casos de estudio en el quehacer industrial del país, en función de los conocimientos adquiridos en clase.

2. Contenido Programático del Curso

El curso está formado por cuatro (4) unidades temáticas, a saber:

Unidad I: Impacto de las actividades industriales sobre el ambiente (Referencias 1-6).

I.1. La Problemática Ambiental.

I.2. Principales problemas ambientales en las empresas Venezolanas.

I.2.1. Plaguicidas.

I.2.2. Contaminantes del Agua.

I.2.3. Contaminantes del Aire.

I.2.4. Desechos Sólidos.

I.2.5. Desechos Peligrosos.

I.2.6. Radiactividad.

I.2.7. Problemas ambientales globales.

Unidad II: Principios básicos en la Prevención de la Contaminación Industrial (Referencias 17-23).

II.1. Conceptos y términos relacionados con la Prevención de la Contaminación Industrial.

II.2. Clasificación de las Técnicas de Prevención de la Contaminación Industrial:

II.2.1. Administración de Inventarios.

II.2.2. Modificación del proceso de producción.

II.2.3. Reducción de volumen.

II.2.3. Recuperación.

II.3. Incentivos, barreras y estándares relacionados con la Prevención de la Contaminación Industrial: Gerencia Ambiental.

Unidad III: Herramientas para la Prevención de la Contaminación Industrial (Referencias 24-30).

III.1. Análisis del Ciclo de Vida del Producto.

III.2. Biotecnología para la Prevención.

III.3. Estudios de Impacto Ambiental.

III.4. Asesorías Ambientales.

III.5. Legislación Ambiental

III.6. Economía Ambiental

Unidad IV: Casos de Estudio: Elegir un proceso industrial de interés. Algunas de las industrias que podrían ser analizadas son: de energía eléctrica, química, de producción y refinación de petróleo, textil, de pulpa y papel, farmacéutica, de desechos industriales, automotriz, metalmecánica, metalúrgica, y de transporte y operaciones de petróleo, entre otras.

3. Estrategias de Enseñanza y Aprendizaje

El contenido del curso ha sido suministrado utilizando varios patrones de enseñanza-aprendizaje, a través de: (a) Actividades de grupo, (b) Actividades de equipo, y (c) Actividades individuales.

Estos patrones se combinaron con métodos y técnicas tales como:

1. Conferencias: actividad grupal conducida por el profesor o un invitado especial, a fin de ofrecer una posición sólida y experta sobre los temas claves del curso.

2. Estudio de casos: desarrollados por equipos constituidos por los estudiantes del curso, para profundizar sobre casos específicos de estudio en el país, utilizando como base las conferencias previamente conducidas por el profesor o un invitado experto.

4. Estrategias de Evaluación

La evaluación se curso ha consistido de una evaluación de entrada que busca conocer las experticias y expectativas que traen los estudiantes al curso y una evaluación del proceso a partir de evaluaciones individuales, grupales y continuas.

Evaluación de entrada:

1. Pre-diagnostico.

2. Formulación de expectativas de los participantes.

3. Diagnóstico.

Evaluación del proceso:

* Desempeño individual mediante dos exámenes parciales.

* Desempeño por equipo mediante la elaboración de un trabajo escrito y su exposición oral, sobre casos de estudio específicos seleccionados al inicio del trimestre.

* Retroalimentación continúa a través las intervenciones y participación de los estudiantes.

5. Casos de Estudio

Esta actividad consiste en la elección por parte del estudiante o grupo de ellos, de un proceso industrial de su interés. Se espera que se describa esquemáticamente el proceso seleccionado, que se indiquen las partes del proceso que producen daños ambientales y se propongan medidas que sean capaces de prevenir, mitigar o corregir cada daño señalado en cada punto del proceso identificado. Estas medidas deben provenir de la información adquirida en clase o de la consulta de fuentes especializadas a través de la bibliografía disponible. A continuación se presentan dos casos de estudio desarrollados por participantes del curso en su última edición del período abril-julio-2005, los cuales fueron expuestos oralmente y por escrito como trabajo final de la asignatura.

5.1. Prevención de la Contaminación en un Laboratorio de Terapia Celular.

La terapia celular, es una técnica cuyo objetivo es elaborar o utilizar de forma sencilla un material celular capaz de reconstruir una parte de un órgano, que previamente se había perdido de modo irreversible por la muerte del tejido, para ello se utilizan células madre vivas que son trasplantadas en el organismo y que por sus capacidades: pluripontencialidad y diferenciación, sirven de manera eficiente con la reparación de órganos y tejidos dañados [31, 32].

Las células madre se obtienen desde cualquier embrión, pero además pueden obtenerse desde algunos tejidos del ser humano adulto como, la médula, sangre periférica y recientemente del músculo cardíaco.

Algunas aplicaciones de esta técnica se han realizado en la fabricación de retazos de piel para el tratamiento de grandes quemaduras, en la sustitución del transplante de cornea en pacientes sin posibilidad de la misma, y en los estudios para atacar eficazmente las lesiones medulares, el Alz-Heimer, el Parkinson, la Esclerosis múltiple y otros terribles trastornos neurodegenerativos. Una de las aplicaciones más frecuentes es la llamada cardiomioplastia celular, técnica que consiste en el cultivo de células madre obtenidas a partir de una biopsia de músculo cardíaco del paciente con el objeto de reparar y rehabilitar la región muerta a consecuencia del infarto [33].

Actualmente, esta técnica ha sido muy difundida y cada vez se escucha hablar más de ella, parece un buen negocio y por este motivo es importante conocer en qué consiste y más aún, cuánto daño puede causar al ambiente con el empleo de materiales biológicos y sustancias químicas. De igual manera, es necesario estar atentos con los efectos, producto de la utilización de materiales y equipos propios de un laboratorio de esta índole.

Este trabajo se realizó en el marco de la asignatura “Prevención de la Contaminación Industrial” y tuvo como objetivo fundamental proponer medidas para prevenir la contaminación generada en Laboratorios de Terapia Celular (LTC). Para ello se describió el proceso involucrado, se evaluaron los posibles puntos críticos capaces de generar contaminación, fueron señalados los efectos de estos residuos o desechos sobre el ser humano y el ambiente en general y, finalmente, se propusieron medidas preventivas y recomendaciones que evitaran o disminuyeran la cantidad de contaminantes generados.

El proceso desarrollado en los LTC se resumen en 4 pasos o etapas principales [33]: obtención y aislamiento de células madre, producción del implante celular (cultivo), preservación de las células y finalmente implantación de las células en el tejido u órgano dañado (ver Tabla I). Entre los principales contaminantes generados podemos enunciar: desechos orgánicos y biológicos (células y tejidos), desechos y residuos de sustancias químicas peligrosas, material descartable (guantes, bata, cápsulas de vidrio, envases contenedores de células y tejidos), residuos de papel, vidrio y plástico, desechos orgánicos (restos de comida), ruido, y consumo de agua y energía. La Tabla II muestra los principales contaminantes generados en el proceso y sus efectos sobre el ser humano y ambiente.

Tabla I. Etapas del proceso en un Laboratorio de Terapia Celular y posibles fuentes de contaminación asociadas.

Tabla II. Principales contaminantes generados en el proceso y sus efectos sobre el ser humano y ambiente.

Entre las principales medidas preventivas propuestas para encarar el problema de contaminación en un Laboratorio de Terapia Celular se encuentran:

1)Capacitar al personal: informar sobre el uso correcto de las sustancias y materiales a utilizar en el laboratorio.

2)Advertir con señales la presencia de sustancias peligrosas.

3) Mejorar los protocolos usados.

4) Usar medios de cultivos que permitan el mantenimiento de las células y tejidos para así conservar intacto durante un largo periodo el valor biológico de las proteínas contenidas en el material de extractos celulares, y para darles a los laboratorios el tiempo necesario para efectuar los numerosos tests y controles requeridos, con el fin de excluir cualquier posibilidad de presencia de agentes patológicos o tóxicos que pudieran afectar al material, ya que los productos biológicos y los tejidos celulares se desnaturalizan rápidamente por la acción de las diferentes enzimas proteolíticas que descomponen la materia viva de las células.

5) Disponer adecuadamente los desechos orgánicos, biológicos y químicos, según lo estipulado en la Ley de cada País. En Venezuela, se cuenta con una la Ley N° 55 sobre Sustancias, Materiales y Desechos Peligrosos (34), cuyo objetivo es “regular la generación, uso, recolección, almacenamiento, transporte, tratamiento y disposición final de las sustancias, materiales y desechos peligrosos, así como cualquier otra operación que los involucre, con el fin de proteger la salud y el ambiente”.

6) Utilizar plantas de emergencia para los sistema de refrigeración y las incubadoras de cultivo celular, reguladores de voltaje para todos los equipos eléctricos y sistemas UPS para aquellos equipos tipo computadoras, sistema de aire acondicionado para todas las áreas, especialmente para el cuarto de cultivo, extintores, duchas y lavaojos para que el personal se lave en caso de accidentes con reactivos.

Después de evaluar los puntos críticos del proceso realizado en los LTC y determinar los tipos de contaminantes generados y sus efectos, se puede decir que éstos no son una amenaza ambiental en comparación a las industrias petroleras, metalúrgicas, mineras, entre otras, porque no son generados en grandes cantidades, pero en general estos lugares, constituyen un ambiente de alto riesgo para los que laboran allí y en sus alrededores, ya que la impericia y el desconocimiento en el manejo de equipos, sustancias y materiales del laboratorio, podrían generar accidentes con consecuencias devastadoras a corto, mediano y largo plazo, como intoxicaciones, explosiones, incendios y corrosión.

5.2.Prevención de la contaminación en un empresa de papel.

La palabra papel deriva de la palabra papiro y es una sustancia compuesta de fibras entrelazadas en una malla compacta obtenida a partir de la introducción de una suspensión de fibras de celulosa en una pantalla muy delgada. Un largo número de aditivos son además agregados antes de que esta malla de celulosa luzca como el papel con las propiedades conocidas. El papel incluye una amplia gama de aplicaciones tales como de comunicación, culturales, educacionales, artísticas, sanitarias y de almacenamiento y transporte (35).

Sin embargo, y a pesar de su utilidad, el proceso de manufactura del papel desde el árbol hasta su forma final involucra una serie de eventos que pueden tener significativos impactos ambientales.

En este proyecto se identificaron los principales pasos involucrados en el proceso de obtención de papel, los procesos contaminantes asociados con su manufactura y, por último, las principales medidas para la prevención, control y/o mitigación de los daños producidos durante el proceso.

El proceso de obtención del papel incluye los siguientes pasos (35): 1) la recolección de las fibras productoras mediante la deforestación de áreas boscosas; 2) la obtención química de la pulpa mediante el tratamiento con sustancias químicas como sulfitos, sulfitos modificados, sulfatos y soda; 3) el blanqueamiento de la pulpa mediante el uso de agentes blanqueadores tales como cloro, hipocloritos, dióxidos de cloro y peróxido de hidrógeno; 4) el procesamiento de las fibras o refinamiento donde las fibras en suspensión de agua son expuestas a cortado mecánico y esquilado en una cortadora y; 5) por último, la fabricación del papel mediante una máquina fabricadora que incluye la secuencia de formación de la hoja, compresión y secado.

Los impactos ambientales claves producidos por la industria papelera giran en torno a los siguientes eventos:

  • Tala de árboles, reducción de bosques fotosistetizadores y destrucción de ecosistemas.

  • Producción de ruido por el manejo de materiales en el proceso de extracción de la madera, y tratamiento de la pulpa

  • Emisiones a la atmósfera provenientes de la producción de energía, polvo y uso químico.

  • Uso de abundantes cantidades de agua

  • Descargas de agua contaminada

  • Desechos del proceso de descortezado y astillamiento

  • Consumo de energía

Los impactos ambientales significativos en la manufactura de la pulpa y del papel como producto final resultan del proceso de tratamiento de la pulpa y blanqueo de la misma. En algunos procesos, son emitidos a la atmósfera compuestos sulfurados y óxidos de nitrógeno y son descargados en aguas residuales compuestos orgánicos o clorados, nutrientes y metales.

Los programas de prevención de la contaminación se deben enfocar en reducir las descargas producidas por la industria y minimizar las emisiones aéreas. Algunos lineamientos generales pueden incluir los siguientes:

1) El uso de procesos de extracción de pulpa eficientes desde el punto de vista energético, siempre que sea posible. La aceptabilidad de productos menos trabajados (como los papeles para revistas, etc.) debe ser impulsada.

2) Deben considerarse procesos termomecánicos como sustitución de los procesos químicos. Además, pueden seguirse lineamientos generales apuntando hacia la prevención de la contaminación, tales como:

  • Minimizar la generación de efluentes a través de modificaciones en el proceso y reciclaje de aguas de desecho

  • Reducir el volumen de efluentes líquidos empleando la recuperación de químicos de producción de pulpa reconcentrándolos en calderas y empleando equipos de lavado y blanqueo más eficientes.

  • Minimizar las descargas no planificadas de aguas de desecho causadas por mal funcionamiento de los equipos, errores humanos y procedimientos de mantenimiento deficientes. Esto puede lograrse entrenado operadores, personal general y estableciendo mejores prácticas de trabajo

  • Reducir las necesidades de blanqueo por el diseño de nuevos procesos, evitando la descarga de compuestos clorados al ambiente.

  • Minimizar las emisiones sulfurosas a la atmósfera empleando calderas de recuperación Además de estos lineamientos generales, existen varias herramientas biotecnológicas que pueden ser usadas para la reducir la liberación de tóxicos como resultado de la producción del papel. Algunos de ellos se describen a continuación (36):

1) Uso de hongos: Los tratamientos con hongos, en general, resultan en una disminución general en los ácidos grasos totales y los ácidos resinosos presentes en la madera. Los triglicéridos son prácticamente hidrolizados. El uso de hongos resulta en una reducción del 37% en el uso de blanqueadores y un incremento del 1% en la brillantez del papel, además de mejorar las propiedades de resistencia.

2) Uso de enzimas: Enzimas como las lipasas pueden ser también usadas como removedores de resinas. Estas enzimas catalizan la hidrólisis de triglicéridos, los cuales han sido identificados como componentes de las resinas. Las Lipasas de Pseudomonas sp., una bacteria muy común, han sido empleadas ocasionalmente con resultados favorables.

3) Blanqueo de la pulpa con Xylanasas. El uso de Xylanasas en las diferentes secuencias de blanqueamiento conduce consistentemente a una reducción de la aplicación de sustancia químicas. Estas enzimas pueden ser agregadas al final del tratamiento de producción de pulpa en lugares de almacenaje con condiciones ajustadas de pH y temperatura, destinados a optimizar la acción de las enzimas. El uso de Xylanasas reduce las descargas de compuestos clorados, al disminuirse su uso y el de otros químicos como los peróxidos.

I. CONCLUSIONES

1) Los participantes del curso fueron capaces de seleccionar un proceso industrial de su interés, describirlo secuencialmente e identificar los puntos susceptibles de causar daños ambientales, sugiriendo luego las medidas preventivas necesarias para enfrentarlos.

2) Con esta actividad los participantes lograron aplicar los conocimientos adquiridos en el curso a un caso específico de análisis, no muy diferente a los que se verán enfrentados en su quehacer profesional.

3) Las sucesivas ediciones del curso “Prevención de la Contaminación Industrial”, han formado ambientalmente a varios profesionales que actualmente se desempeñan en el área empresarial y que cuentan con las herramientas, legales, técnicas y gerenciales para enfrentar cualquier de los retos ambientales derivados de los procesos en que trabajan.

II. REFERENCIAS

1. Miller, G. Ecología y Medio Ambiente. Grupo Editorial Iberoamérica S.A. de C.V. Ciudad de México. 1994 867 pp.        [ Links ]

2. Henry, J. & G. Heinke. Ingeniería Ambiental. Prentice Hall. México. 1996 778 pp.        [ Links ]

3. Bifani, P. Medio ambiente y desarrollo sostenible. IEPALA Editorial. Madrid. 1999 593 pp.        [ Links ]

4. Kiely, G. Ingeniería Ambiental. Fundamentos, entornos, tecnologías y sistemas de gestión. Mc Graw-Hill Interamericana de España, S.A. Madrid. 1999 1331 pp.        [ Links ]

5. Nebel, B. & R. Wright. Ciencias Ambientales. Prentice Hall Hispanoamericana S.A. Ciudad de México. 1999 698 pp.        [ Links ]

6. Morales, I. & R. Reyes. Mercurio y salud en odontología. Revista de Saúde Pública Vol. 37, No. 2 (2003) pp 263- 265.BID-PNUD. Nuestra propia agenda sobre Desarrollo y Medio Ambiente. BID/PNUD. Fondo de Cultura Económica. México. 1991 102 pp        [ Links ]

7. Seager, J. Atlas del Estado Medioambiental. Madrid. Ediciones Akal, S.A., 2002 129 pp.        [ Links ]

8. Villegas, A.; Reyes, R. y L. Galván. Problemática ambiental en Venezuela y el mundo. Universidad, Ciencia y Tecnología, Vol. 8, No. 30 2004 117-125.        [ Links ]

9. Clemente, A.; Souza, A.; Galván, L. y R. Reyes. Estrategias empresariales para la conservación ambiental en el Sector Industrial. Universidad, Ciencia y Tecnología, Vol. 9, No. 33 2005 pp 3-9.        [ Links ]

10. Field, B. Economía Ambiental. Una Introducción. McGraw- Hill Interamericana, S.A. Bogotá. 1995 587 pp.        [ Links ]

11. Azqueta, D. & L. Pérez. Gestión de los espacios naturales. Mc. Graw-Hill Interamericana de España, S.A. Madrid. 1996 237 pp.        [ Links ]

12. Pearce, D. & R. Turner. Economía de los Recursos Naturales y del Medio Ambiente. Celeste Ediciones. Madrid. 1995 448 pp.        [ Links ]

13. Galván, L. & R. Reyes. Asignación de precio a los ecosistemas como bienes ambientales únicos. Interciencia Vol. 24, No. 1 1999 pp 14-16.        [ Links ]

14. Reyes, R. & L. Galván. Asignación de precios a los bienes ambientales como instrumento de gestión tecnológica. Universidad, Ciencia y Tecnología Vol. 3, No. 9, 1999 pp 3-7.        [ Links ]

15. Reyes, R.; Galván, L. y M. Aguiar. El precio de la contaminación como herramienta económica e instrumento de política ambiental. Interciencia Vol. 30, No. 7 (2005) pp 436-441.        [ Links ]

16. Clements, R. Guía completa de las normas ISO 14000. Ediciones Gestión 2000. Barcelona. 1997 285 pp.        [ Links ]

17. Venezuela. Ley Penal del Ambiente. Gaceta Oficial No. 4358 del 03-01-1992.        [ Links ]

18. Bernardes, R.; Tachizawa, T. y A. Barreiros. Gestão Ambiental. Markon Books do Brasil Editora Ltda. Sao Paulo. 2000 206 pp.        [ Links ]

19. Clemente, A.; Souza, A.; Galván, L. y R. Reyes. Propuesta metodológica para la evaluación socio-ambiental de proyectos industriales y energéticos. Universidad, Ciencia y Tecnología, Vol. 7, No. 28 2003 pp 239-245.        [ Links ]

20. Marco, O. y R. Reyes. Tecnologías limpias aplicadas a la agricultura. Interciencia Vol. 28, No. 5 2003 pp 252-258.        [ Links ]

21. Mata, A.; Reyes, R. y R. Mijares. Clasificación y manejo de desechos hospitalarios. Universidad, Ciencia y Tecnología, Vol. 7, No. 25 2003 pp 51-57.        [ Links ]

22. Mata, A.; Reyes, R. y R. Mijares. Manejo de desechos hospitalarios en un hospital tipo IV de Caracas, Venezuela. Interciencia Vol. 29, No. 2 2004 pp 89-93.        [ Links ]

23. Hunt, D. & C. Johnson. Sistemas de Gestión Medioambiental. Mc Graw-Hill Editores, S.A. Bogotá. 1996 318 pp.        [ Links ]

24. Coronado, M. & R. Oropeza. Manual de prevención y minimización de la contaminación industrial. Panorama Editorial, S.A. de C.V. México. 1998 183 pp.        [ Links ]

25. Freeman, H. Manual de Prevención de la Contaminación Industrial. Mc Graw-Hill Interamericana S.A. Ciudad de México. 1998 943 pp.        [ Links ]

26. Roberts, H. & G. Robinson. ISO 14001 EMS. Manual de Sistema de Gestión Medioambiental. Editorial Paraninfo. Barcelona 1999 425 pp.        [ Links ]

27. Reyes, R.; Galván, L.; Guédez, C. & D. de Armas. 2002. La Gerencia Ambiental en el sistema productivo venezolano. Universidad, Ciencia y Tecnología Vol. 6, No. 23, 2002, pp 155-159.        [ Links ]

28. Guédez, C.; de Armas, D.; Reyes, R. y L. Galván. Los sistemas de gestión ambiental en la industria petrolera internacional. Interciencia Vol. 28, No. 9, (2003) pp 528-533.        [ Links ]

29. Villegas, A.; Reyes, R. y L. Galván. 2005. Gestión ambiental bajo ISO 14001 en Venezuela. Universidad, Ciencia y Tecnología, Vol.10, No.34. (2005) pp 63-69..        [ Links ]

30. Santiago, A. Células madre, regalos de la vida, desde http://www.minusval2000.com/investigacion/archivos Investigacion/celulas_madre/regalosDeVida.html. Revisado en julio 2005. .        [ Links ]

32. Cuevas Pedro. Utilización de células troncales en la terapia celular de la medicina regenerativa. Realidades y Fantasías, desde http: //www.andoc-biosanitario.org/Cientifico/Pcuevas.htm. Revisado en julio 2005.        [ Links ]

33. Universidad de Navarra, España. La Clínica Universitaria de la Universidad de Navarra realiza el primer implante de células madre en España para regenerar un corazón infartado desde .        [ Links ]

34. Venezuela. Ley sobre sustancias, materiales y desechos peligrosos. Gaceta Oficial No. 5554 Ext. del 23-12-2001.        [ Links ]

35. Browning B.L. Analysis of paper. Marcel Dekker, Inc. New York. (1969) 375 pp.        [ Links ]

36. Bajpai, P. y Kondo, R Biotechnology for Environmental Protection in the Pulp and Paper Industry. Springer-Velag. Berlin, Alemania. (1999) 421 pp.        [ Links ]^rND^sMorales^nI^rND^nR^sReyes^rND^sVillegas^nA^rND^sReyes^nR^rND^nL^sGalván^rND^sClemente^nA^rND^sSouza^nA^rND^sGalván^nL^rND^nR^sReyes^rND^sGalván^nL^rND^nR^sReyes^rND^sReyes^nR^rND^nL^sGalván^rND^sReyes^nR^rND^sGalván^nL^rND^nM^sAguiar^rND^sClemente^nA^rND^sSouza^nA^rND^sGalván^nL^rND^nR^sReyes^rND^sMarco^nO^rND^nR^sReyes^rND^sMata^nA^rND^sReyes^nR^rND^nR^sMijares^rND^sMata^nA^rND^sReyes^nR^rND^nR^sMijares^rND^sReyes^nR^rND^sGalván^nL^rND^sGuédez^nC^rND^nD^sde Armas^rND^sGuédez^nC^rND^sde Armas^nD^rND^sReyes^nR^rND^nL^sGalván^rND^sVillegas^nA^rND^sReyes^nR^rND^nL^sGalván^rND^sMorales^nI^rND^nR^sReyes^rND^sVillegas^nA^rND^sReyes^nR^rND^nL^sGalván^rND^sClemente^nA^rND^sSouza^nA^rND^sGalván^nL^rND^nR^sReyes^rND^sGalván^nL^rND^nR^sReyes^rND^sReyes^nR^rND^nL^sGalván^rND^sReyes^nR^rND^sGalván^nL^rND^nM^sAguiar^rND^sClemente^nA^rND^sSouza^nA^rND^sGalván^nL^rND^nR^sReyes^rND^sMarco^nO^rND^nR^sReyes^rND^sMata^nA^rND^sReyes^nR^rND^nR^sMijares^rND^sMata^nA^rND^sReyes^nR^rND^nR^sMijares^rND^sReyes^nR^rND^sGalván^nL^rND^sGuédez^nC^rND^nD^sde Armas^rND^sGuédez^nC^rND^sde Armas^nD^rND^sReyes^nR^rND^nL^sGalván^rND^sVillegas^nA^rND^sReyes^nR^rND^nL^sGalván^rND^1A01^sRamírez^nJuan^rND^1A02^sMoreno^nFranklin^rND^1A03^sMedina^nRubén^rND^1A01^sRamírez^nJuan^rND^1A02^sMoreno^nFranklin^rND^1A03^sMedina^nRubén^rND^1A01^sRam¡rez^nJuan^rND^1A02^sMoreno^nFranklin^rND^1A03^sMedina^nRub‚n

Análisis de la serie temporal del balanceo en la marcha de pacientes con parkinson

Ramírez, Juan Moreno, Franklin Medina, Rubén

Los autores desempeñan sus actividades en la Universidad de Los Andes (ULA), Mérida, Venezuela.

Ing. Juan M. Ramírez: Profesor Instructor en el Dpto. de Electrónica y Comunicaciones, Escuela de Eléctrica, Facultad de Ingeniería, telef. 58-274-2402906, fax 58-274-2402907, correo electrónico juanra@ula.ve.

MSc. Franklin Moreno: Profesor Asistente en la Cátedra de Embriología de la Facultad de Medicina, telef. 58-274-2403130, correo electrónico fmoreno@ula.ve.

Dr. Rubén Medina: Profesor Titular en el Grupo de Ingeniería Biomédica, Facultad de Ingeniería, telef. 58-274-2402906, fax 58-274-2402907, correo electrónico rmedina@ula.ve.

Resumen

La marcha en los pacientes afectados por la enfermedad de Parkinson se caracteriza por un desequilibrio corporal marcado, con inestabilidad de los movimientos e incremento de la variabilidad entre pasos. Este trabajo propone una metodología para definir nuevos parámetros que discriminen pacientes con Parkinson respecto a personas sanas, a partir del análisis de señales procedentes de la marcha, específicamente a partir de las Series Temporales de Intervalos de Balanceo (STIB). Los parámetros de discriminación analizados a partir de las series STIB son: el coeficiente de variación, la potencia espectral y los promedios temporales de los espectrogramas de Fourier. Tales parámetros se evaluaron usando las series STIB de 15 pacientes con Parkinson y de 15 sujetos sanos. Al realizar el correspondiente análisis estadístico mediante la prueba T-Student, se obtuvieron para los tres parámetros definidos diferencias estadísticamente significativas entre pacientes con Parkinson y sujetos de control (p<0.01). El procedimiento propuesto puede ser utilizado en la detección temprana de alteraciones en la marcha, y podría ser compatible con el diagnóstico precoz del Parkinson. Sin embargo, este estudio no discrimina entre las diversas enfermedades que afectan la marcha, recomendándose que el método propuesto esté acompañado de los procedimientos clínicos de diagnóstico.

Palabras Clave: Coeficiente de Variación/ Enfermedad del Parkinson/ Espectrograma de Fourier/ Potencia Espectral/ Prueba T de Student.

Analysis of swing time series in the gait of parkinson patients

Abstract

The gait of patients affected by Parkinson disease is characterized by a marked corporal unbalance, with instability of movements and an increase in the variability between steps. This article proposes a methodology to define new parameters, for Parkinson disease discrimination, extracted from the Time Series of Swing Interval (TSSI). The analyzed discrimination parameters are: the coefficient of variation, the power spectrum and the temporal averages of the Fourier Spectrogram. These parameters were evaluated using the TSSI of 15 Parkinson patients and 15 healthy persons. The statistical analysis, using the T-Student test, shows significant statistical differences between Parkinson patients and control subjects (p < 0.01). The proposed procedure could be used for early detection of alterations of the gait, and could be compatible with the premature diagnosis of Parkinson disease. However, this analysis does not discriminate between different neuro-degenerative diseases, thus, the proposed method should be complemented with other diagnosis clinical procedures.

Keywords: Coefficient of Variation/ Fourier Spectrogram/ Parkinson Disease/ Power Spectrum/ TStudent Test.

Finalizado: 10/03/2005 Recibido: 08/04/2005 Aceptado: 02/05/2006

I. INTRODUCCIÓN.

El Parkinson es una enfermedad caracterizada por movimientos temblorosos involuntarios, con disminución de la fuerza muscular, propensión a inclinar el tronco hacia adelante y a provocar en la marcha la transición hacia la carrera [1]. Esta enfermedad no afecta los sentidos ni el intelecto. Además, el Parkinson es un trastorno que se presenta en edades medias o avanzadas de la vida, desplegando una progresión gradual y una evolución prolongada.

La dinámica de la marcha es uno de los parámetros que se estudia actualmente en los pacientes con Parkinson, en quienes se observa con frecuencia una disminución de la longitud de la zancada, una postura encorvada, una reducción del balanceo de las manos y una disminución en la velocidad de la marcha [2] [3] [4]. En algunos pacientes, la variabilidad del tiempo de duración de los pasos y la incapacidad para regular la marcha, han sido utilizadas para predecir futuras fallas en la evolución de la enfermedad. Además, la variación del tiempo entre pasos y la magnitud de las fluctuaciones de la duración del ciclo de la marcha, han sido asociadas con múltiples factores entre los que podemos citar: la fuerza del balanceo, el estado funcional y de salud mental del paciente [5] [6]. Es importante destacar que el incremento de la variabilidad de la marcha es una manifestación clara de la disminución en el control motor; deficiencia que aparentemente aumenta el riesgo de fallas [7].

Recientemente, con el objeto de caracterizar la dinámica de la marcha en personas que padecen enfermedades degenerativas, se han diseñado diversos métodos de adquisición de señales procedentes de la caminata. Tales señales, generalmente son tratadas con el fin de obtener secuencias que describan el comportamiento de las diversas variables asociadas a la marcha. El análisis de dichas secuencias ha permitido caracterizar distintas enfermedades que afectan la marcha, entre las que se destacan: el Parkinson, el Huntington y la Esclerosis Lateral Amiotrófica [8]. Sin embargo, las investigaciones previas de las secuencias procedentes de la marcha, se han centrado en el procesamiento estadístico de las señales en el dominio del tiempo.

Actualmente, está disponible en Internet una base de datos que contiene las series temporales de diversos parámetros asociados con la caminata de pacientes con Parkinson y de individuos sanos [9]. De forma más precisa, en dicha base de datos están incluidas las series temporales de los intervalos de balanceo (STIB) de pacientes con Parkinson y de sujetos sanos, donde dichas series, son vectores que contienen en cada elemento el valor del intervalo de tiempo que permanece uno de los pies sin contacto con el piso, en cada paso durante la caminata.

Este trabajo desarrolla un análisis estadístico, espectral y espectrotemporal de las series STIB, con el objeto de definir nuevos parámetros que discriminen las personas sanas con respecto a los pacientes con Parkinson. Este estudio aplica la Trasformada Discreta de Fourier (DFT) y la Transformada Discreta de Fourier de período corto (DSTFT) para obtener el espectro y el mapa espectro-temporal de las series STIB, respectivamente. Además, a partir del espectro y del mapa espectro-temporal de las series STIB se analizan las variables que puedan discriminar estadísticamente los pacientes con Parkinson con respecto de los individuos sanos.

La estructura del presente trabajo es la siguiente. En la Sección 1, se describen las operaciones estadísticas y de procesamiento de señales implementadas en la presente investigación. Específicamente, las operaciones a considerar son: el coeficiente de variación, la densidad de potencia espectral, la potencia espectral, el espectrograma de Fourier y la prueba estadística TStudent. En la Sección 2, se estudian los métodos de procesamiento aplicados sobre las series STIB. Seguidamente, en la Sección 3, se presentan los resultados de la aplicación de las técnicas de procesamiento previamente descritas, y en la Sección 4 se expone la discusión a partir del análisis de los resultados. Finalmente, en la Sección III, se muestran las conclusiones de la presente investigación.

II. DESARROLLO

1. Técnicas estadísticas y de procesamiento de las señales

Antes de presentar una descripción detallada de la metodología aplicada, se describen brevemente las técnicas estadísticas y de procesamiento de señales implementadas en esta investigación.

A. Coeficiente de Variación

El coeficiente de variación es una medida de la variabilidad de una población con respecto a su valor promedio y está definido como la relación porcentual existente entre la desviación estándar (SD) y el promedio (E) de la señal en estudio (x) [10], en otras palabras:

B. Densidad de Potencia Espectral

La densidad de potencia espectral es una función que estima la magnitud de las diferentes componentes de frecuencia de las señales de interés. No obstante, para la obtención de dicha función, se debe determinar previamente la Transformada Discreta de Fourier (DFT). La definición matemática de la DFT se muestra a continuación:

donde x(n) es la señal discreta en el dominio del tiempo de longitud N, y k representa el tamaño de la DFT. Es de hacer notar que, en este trabajo, la DFT se obtiene usando el algoritmo de Transformada Rápida de Fourier (FFT). A partir de la estimación del espectro X(k) por medio de la DFT, se procede con la obtención de la densidad de potencia espectral de la señal (PSD), definida como:

Como puede observarse en la Ecuación (3), la PSD es un estimado de la distribución de la energía de la señal en un rango de frecuencias definido.

C. Potencia Espectral

La potencia espectral de señales continuas está definida por la integral de la densidad de potencia espectral en un rango de frecuencias. Sin embargo, en este trabajo, dado que las secuencias STIB son series discretas, se obtendrá la magnitud de la potencia espectral usando el criterio la amplitud media cuadrática [11]. Dicho criterio, estima la potencia espectral calculando el promedio de la PSD en un rango de frecuencias definido, ver Ecuación (4), en donde M es la longitud de la PSD en el rango de frecuencias de interés.

D. Espectrograma de Fourier

El Espectrograma de Fourier (FS) es una técnica usada para la representación espectro-temporal de las señales. Dicha representación se obtiene a partir del cálculo de la Transformada Discreta de Fourier de período corto (DSTFT) [12], [13]. La definición matemática de la DSTFT es la siguiente:

donde x(m) es la señal a procesar, ω(nL - m) es una función ventana que multiplica a la señal de interés, RN(k) es una secuencia rectangular de N puntos definida por la Ecuación (6), n representa el número de períodos cortos o segmentos de la señal y k es el tamaño de la DFT. Las funciones u(k) y u(k - n), descritas en la Ecuación (6), son escalones unitarios centrados en cero y n, respectivamente.

La DSTFT se construye multiplicando la señal de interés por una función de ventana ω(m) de longitud L . Luego se obtiene la DFT de la señal resultante. Posteriormente, la ventana se desplaza n posiciones a lo largo de la señal, repitiéndose el proceso anteriormente descrito para obtener la representación espectro-temporal de la señal x(n), que corresponde a una señal bidimensional denotada por X(n, k). La DFT se implementa utilizando el algoritmo de FFT.

El cálculo del espectrograma de Fourier se describe en la Ecuación (7), en la que se observa que esta operación provee la distribución espectro-temporal de la energía de la señal.

Las variables más importantes en un espectrograma son la longitud de la función ventana ω(m) y el solapamiento. La longitud de la ventana determina la resolución en tiempo y en frecuencia del FS. Si la longitud de la ventana es corta, el FS tendrá una buena localización en tiempo pero una pobre resolución en frecuencia. En cambio, si la longitud de la ventana es larga, la resolución en frecuencia será buena pero la localización en tiempo será pobre. El valor del solapamiento en el cálculo del FS permite controlar las discontinuidades en el eje temporal de la representación espectro-temporal. Resultados con menos discontinuidad en las transiciones del mapa espectro-temporal son obtenidos al aplicar un mayor solapamiento entre ventanas.

E. Prueba T de Student

La prueba de hipótesis t-Student valora las posibles diferencias estadísticas entre los promedios de dos grupos de datos. El valor t de la prueba de hipótesis t-Student se obtiene mediante la siguiente expresión:

En la Ecuación (8), μT y μ son los promedios de cada una de las poblaciones en estudio; varT y varC son las varianzas de dichas poblaciones; y nT y nC son la cantidad de muestras en cada población. Una vez calculado el valor de t -el cual indica la diferencia entre los promedios de las dos poblaciones en estudio- se busca en una tabla el nivel de significación (p) para apreciar el grado de diferencias entre las dos poblaciones. El nivel de significación más usado para concluir que dos poblaciones tienen diferencias estadísticamente significativas entre sus muestras es el de p < 0.05.

2. Métodos

2.1. Descripción de los Datos

Las señales STIB son parte de una base de datos que registró diversos parámetros de la marcha en 30 sujetos (15 pacientes diagnosticados con la enfermedad de Parkinson y 15 individuos sanos). Esta base de datos está disponible en www.physionet.org/physiobank. Las señales procedentes de los pacientes con Parkinson son resultados de medidas realizadas a personas tratadas en el Hospital General de Massachussets. Estos pacientes presentan un promedio de edad de 66.8±10.9 años, y un promedio de tiempo transcurrido después del diagnóstico inicial de la enfermedad de 32.0±10.3 meses. Los sujetos sanos tienen un promedio de edad de 39.3 ± 18.5 años.

El experimento de la dinámica de la marcha fue realizado de manera idéntica en los 30 sujetos. Tales sujetos fueron inducidos a caminar a paso normal durante 5 minutos a lo largo de un pasillo de 77 m de longitud. Con la finalidad de medir los parámetros asociados a la marcha, se le colocó a cada zapato una plantilla sensible a la presión, que enviaba la información a un pequeño grabador colocado en los tobillos de los sujetos en estudio. Más detalladamente, la adquisición de los datos se obtuvo con un sistema desarrollado por Hausdorff et al., y reportado en [14], que proporciona estimados aproximados del inicio, finalización y fases de postura de la secuencia de pasos durante la caminata. Los datos adquiridos se procesaron, determinándose con ello el intervalo del balanceo, definido como el tiempo que permanece uno de los pies sin contacto con el suelo durante cada paso. Luego, se construyó cada secuencia STIB a partir de los valores de intervalo de balaceo de cada individuo durante la caminata. Los procedimientos empleados en el presente trabajo se implementaron sobre las series STIB obtenidas del pie derecho de cada individuo.

Para eliminar los efectos en la señal producidos por el giro de la persona al final del pasillo, se aplicó un filtro no lineal [10]. Este filtro elimina aquellos datos cuya amplitud exceda 3 veces la desviación estándar (3*SD) alrededor del valor de mediana de la señal y en el lugar del dato removido, se asigna el valor promedio de la señal. En la Figura 1, se muestran las series STIB procedente de un sujeto sano y de un paciente con Parkinson, después de aplicar el filtro no lineal.

Figura 1. (a) Serie STIB de un sujeto sano (b) Serie STIB de un paciente con Parkinson

2.2. Procesamiento de las Series STIB

El procedimiento de tratamiento de las señales se inició con la obtención de los coeficientes de variación de las series STIB de sujetos sanos y de pacientes con Parkinson. Específicamente, dicha operación se realizó aplicando la Ecuación (1) sobre las secuencias STIB procedentes de cada individuo. Es importante resaltar que, desde el punto de vista de la marcha, el coeficiente de variación de las series STIB es un parámetro de medición de la fluctuación de la velocidad de la caminata, debido a que despliega la información de la variabilidad del tiempo de balanceo con respecto al tiempo promedio de duración de cada paso [10].

Luego, se obtuvo la potencia espectral de las secuencias STIB. Para ello, se calculó la DFT de las secuencias en estudio usando el siguiente procedimiento: como primer paso, se extrajo el valor promedio de las series STIB con el fin de estudiar los espectros generados por la variabilidad de las señales en estudio [15]; luego, se multiplicó cada serie por una función ventana de Blackman con el objeto de suavizar los efectos oscilatorios producidos en el espectro por el truncaje de la señal [15]; y, a partir de las secuencias resultantes, se determinaron los espectros aplicando el algoritmo de transformada rápida de Fourier (FFT).

A partir del espectro X(k) se obtuvo la densidad de potencia espectral (PSD) de las señales en estudio, (ver Ecuación 3). En la Figura 2, se despliegan las PSD de las series STIB procedente de un sujeto sano y de un paciente con Parkinson. Seguidamente se procedió a realizar el cálculo la potencia espectral (PS) de las secuencias STIB procedentes de los pacientes con Parkinson y de los individuos sanos para el rango de frecuencias (0 - 0.5Hz).

Figura 2. (a) PSD de la serie STIB de un sujeto sano (b) PSD de la serie STIB de un paciente con Parkinson

A partir de las series STIB también se procedió con la obtención del espectrograma de Fourier (FS). Específicamente, el FS de las señales STIB de los sujetos en estudio se realizó con una ventana de observación de 32 muestras y un solapamiento entre ventanas de 8 muestras. La función utilizada para la multiplicación con la señal de interés fue una ventana de Blackman de 32 muestras. La elección del tipo de ventana se realizó con el fin de disminuir las oscilaciones que produce la aplicación de la DFT a señales finitas. La representación espectro-temporal del FS de un sujeto sano y de un paciente con Parkinson se observa en la Figura 3.

Figura 3. (a) FS de la serie STIB de un sujeto sano (b) FS de la serie STIB de un paciente con Parkinson

Con el fin de obtener un parámetro adicional de discriminación entre los pacientes con Parkinson y los individuos sanos, se estimaron los promedios temporales de los espectrogramas de Fourier de las secuencias STIB. La expresión matemática para la determinación de los promedios temporales de cada espectrograma de Fourier está definida por:

en donde N es la longitud del espectrograma de Fourier a lo largo del eje temporal, y M es la longitud del espectrograma a lo largo del eje de la frecuencia. A partir de la Ecuación (9) se puede observar que para cada espectrograma de Fourier se obtiene M promedios temporales, en donde TM(ki) es el promedio del espectrograma de Fourier a lo largo del eje temporal, a la frecuencia definida por ki.

3. Resultados

Los primeros parámetros de discriminación considerados en este trabajo fueron el coeficiente de variación y la potencia espectral. Dado que se obtiene un valor de coeficiente de variación y un valor de potencia espectral por cada secuencia STIB, se desplegó gráficamente las magnitudes de los parámetros mencionados. De forma más precisa, en la Figura 4 se despliegan gráficamente los valores porcentuales de los coeficientes de variación de las series STIB obtenidos de pacientes con Parkinson y de sujetos sanos. En la Figura 4 se puede notar que los coeficientes de variación obtenidos de las series STIB de pacientes con Parkinson describen magnitudes mayores comparadas con los coeficientes de variación de sujetos sanos.

Figura 4. Coeficientes de variación de los sujetos sanos y de los pacientes con Parkinson

De la misma forma, en la Figura 5 se muestran gráficamente los resultados de las potencias espectrales de las secuencias STIB procedentes de los pacientes con Parkinson y de los sujetos sanos. En dicha gráfica se puede observar que las potencias espectrales procedentes de las series de pacientes con Parkinson describen amplitudes mayores comparadas con las potencias espectrales de los individuos de control. Es importante destacar que a partir de una observación detallada de la Figura 4 se pueden diferenciar las potencias espectrales de las series STIB de los pacientes con Parkinson con respecto a las potencias espectrales de las series STIB de los sujetos sanos.

Figura 5. Potencias Espectrales de los sujetos sanos y de los pacientes con Parkinson

Con el fin de cuantificar las diferencias entre los pacientes con Parkinson y los sujetos sanos a partir del coeficiente de variación y la potencia espectral, se procedió a la aplicación de la prueba T-Student. Específicamente, se aplicó la prueba T-Student entre los coeficientes de variación de las series STIB de los pacientes con Parkinson y los coeficientes de variación de las series STIB de las personas sanas. De forma similar, se aplicó la prueba TStudent entre las potencias espectrales de las series STIB de los pacientes con Parkinson y las potencias espectrales de las series STIB de los individuos sanos. En la Tabla I, se despliegan los niveles de significación obtenidos para los coeficientes de variación y para las potencias espectrales de pacientes con Parkinson con respecto a los sujetos sanos. A partir de una examinación de la Tabla I, se puede observar que existen diferencias estadísticamente significativas entre los grupos de estudiados.

Tabla I

Nivel de Significación (p) después de aplicar la Prueba t de Student a los Coeficientes de Variación y las Potencias Espectrales de Pacientes con Parkinson con respecto a Sujetos Sanos

En la Tabla II, se despliegan los resultados del análisis estadístico de los promedios temporales de las series STIB para un rango de frecuencias entre 0.0938 y 0.500 Hz; considerando un incremento de 0.0375Hz. En dicha tabla, se muestran los niveles de significación después de realizar la prueba t-Student a los promedios temporales de ambos grupos, a cada una de las frecuencias. Al aplicar el análisis estadístico por medio de la prueba T-Student, se observó que los niveles de significación (p) de los promedios temporales de las señales STIB -entre las frecuencias de 0.0938-0.500 Hz- presentan un valor menor a 0.01. Esto demuestra que existen diferencias significativas entre los promedios temporales de los espectrogramas de Fourier de los pacientes con Parkinson con respecto a los promedios temporales de los espectrogramas de Fourier de los sujetos de control.

Tabla II

Nivel de significación (p) despues de aplicar la prueba t de Student a los Promedios Temporales de los espectrogramas de Fourier de Pacientes con Parkinson con respecto a sujetos sanos, dentro de frecuencias (0.094-0.500hz)

4. Discusión

Los porcentajes de los coeficientes de variación de las series STIB presentan diferencias estadísticamente significativas (p = 0.00026) de los pacientes con Parkinson en comparación con los sujetos sanos (ver Figura 4). Estos resultados pudiesen ser debidos a que los sujetos afectados por la enfermedad del Parkinson presentan mayores fluctuaciones en el tiempo de duración del balanceo en comparación con las personas sanas. Tal comportamiento, evidencia una mayor inestabilidad durante la marcha de personas que padecen la enfermedad del Parkinson con respecto a individuos sanos.

Las potencias espectrales de las series STIB en el rango de frecuencias 0.0-0.5 Hz presentan diferencias estadísticamente significativas entre los dos grupos en estudio (p = 0.0029). Tales diferencias pudiesen ser debidas a que en sujetos sanos las variaciones entre balanceos consecutivos son mínimas durante toda la caminata. Por el contrario, en los pacientes con Parkinson existen mayores fluctuaciones entre balanceos consecutivos durante la caminata, evidenciando la pérdida del control sobre la marcha en personas que padecen la enfermedad del Parkinson.

III. CONCLUSIONES

1) El primer parámetro, el coeficiente de variación de las series STIB, permite la discriminación entre pacientes con Parkinson y sujetos sanos (p = 0.00026).

2) El segundo parámetro que corresponde a la potencias espectral de las series STIB, también permite diferenciar los grupos bajo estudio (p = 0.0029).

3) Los promedios temporales de los espectrogramas de Fourier de las señales STIB en el intervalo de frecuencias comprendido entre 0.0938-0.500 Hz, constituyen otro parámetro de discriminación entre los sujetos sanos y los pacientes con la enfermedad de Parkinson (p < 0.01).

4) Los parámetros estudiados son útiles para evaluar la severidad de la enfermedad del Parkinson en distintas fases y edades de los pacientes.

IV. REFERENCIAS

1. Isselbacher, K., et al., Principios de Medicina Interna de Harrison, 13ª edición, Madrid, Editorial McGraw Hill, 1994, pp. 2620–2623.        [ Links ]

2. Morris, M., et al., “The Pathogenesis of Gait Hipokinesia in Parkinsons Disease,” Brain, vol. 117, 1994, pp 1169–1181.        [ Links ]

3. Ueno, E., et al., “Gait Disorders in Parkinsinism. A Study with Floor Reaction Forces and EMG,” Adv. Neurol., vol. 60, 1993, pp 414–418.        [ Links ]

4. Morris, M., et al., “Stride Length Regulation in Parkinsons Disease. Normalization Strategies and Underlying Mechanisms,” Brain, vol. 119, 1996, pp 551–568.        [ Links ]

5. Hausdorff, J., Rios, D., y Edelberg, H., “Gait Variability and Fall Risk in Community-Living Older Adults: a 1-Year Prospective Study,” Arch. Phys. Med. Rehabil., vol. 82, 2001, pp 1050–1056.        [ Links ]

6. Maki, B., “Gait Changes in Older Adults: Predictors of Falls or Indicators of Fear,” Journal. Amer. Geriatr. Soc., vol. 45, 1997, pp 313–320.        [ Links ]

7. Joanna, D., et al., “Gait Dynamics in Parkinsons Disease: Relationship to Parkinsonian Features, Fall and Response to Levodopa,” Jour. Neurol. Sci., vol. 212, 2003, pp 47–53.        [ Links ]

8. Hausdorff, J., et al., “Gait Variability and Basal Ganglia Disorders: Stride-to-Stride Variations of Gait Cycle Timing in Parkinsons Disease and Huntingtons Disease,” Mov. Disord., vol. 13, 1998, pp 428–437.        [ Links ]

9. PhysioBank: Physiologic Signal Archives for Biomedical Research, 2005 [online: http://www.physionet.org/physiobank/database/gaitndd/].        [ Links ]

10. Hausdorff, J., et al., “Dynamic Markers of Altered Gait Rhythm in Amiotropic Lateral Sclerosis,” J. Appl. Physiol., vol. 88, 2000, pp 2045–2053.        [ Links ]

11. Press, W.H, et al., “Power Spectrum Estimation Using FFT” in Numerical Recipes in C: The Art of Scientific Computing, Cambridge University Press, 1992, pp 549-558.        [ Links ]

12. Forbes, E., y Schaik, A. V., “Fourier Transform and Wavelet Transform for the Time-Frequency Analysis of Bat Echolocation Signals”, Chapter 2, Technical Report of the University of Sydney, 2002, pp 5-11.        [ Links ]

13. Lim, J., y Oppenheim, A., “Short Time Fourier Transform,” en Advanced Topics in Signal Processing, Editores: S. Nawab y T. F. Quatieri, Englewood Cliffs, NJ Editorial Prentice- Hall., 1987, pp 289-337.        [ Links ]

14. Hausdorff, J., et al., “Footswitch System for Measurement of the Temporal Parameters of Gait,” Journal on Biomechanic, 1995, vol. 28, pp. 347–351.        [ Links ]

15. Lander, P., et al., “High-Resolution Electrocardiography”, Mount Kysco, NY, Editorial Futura Publishing Co. Inc., 1992, chapter 5, pp 105-128.        [ Links ]^rND^sMorris^nM^rND^sUeno^nE^rND^sMorris^nM^rND^sHausdorff^nJ^rND^sRios^nD^rND^sEdelberg^nH^rND^sMaki^nB^rND^sJoanna^nD^rND^sHausdorff^nJ^rND^sHausdorff^nJ^rND^sHausdorff^nJ^rND^sMorris^nM^rND^sUeno^nE^rND^sMorris^nM^rND^sHausdorff^nJ^rND^sRios^nD^rND^sEdelberg^nH^rND^sMaki^nB^rND^sJoanna^nD^rND^sHausdorff^nJ^rND^sHausdorff^nJ^rND^sHausdorff^nJ^rND^1A01^nSonnia^sPavoni Oliver^rND^1A01^nHouari^sCobas Gómez^rND^1A02^nÁngela^sZayas Tamayo^rND^1A02^nEstrella^sÁlvarez^rND^1A03^nRolando^sContreras^rND^1A04^nFabriciano^sRodríguez^rND^1A01^nSonnia^sPavoni Oliver^rND^1A01^nHouari^sCobas Gómez^rND^1A02^nÁngela^sZayas Tamayo^rND^1A02^nEstrella^sÁlvarez^rND^1A03^nRolando^sContreras^rND^1A04^nFabriciano^sRodríguez^rND^1A01^nSonnia^sPavoni Oliver^rND^1A01^nHouari^sCobas G¢mez^rND^1A02^nAngela^sZayas Tamayo^rND^1A02^nEstrella^sAlvarez^rND^1A03^nRolando^sContreras^rND^1A04^nFabriciano^sRodr¡guez

Evaluación de un sensor de capas delgadas para la detección voltamétrica del crecimiento de escherichia coli

Sonnia Pavoni Oliver, Houari Cobas Gómez, Ángela Zayas Tamayo, Estrella Álvarez, Rolando Contreras, Fabriciano Rodríguez

MSc. Sonnia Pavoni Oliver y el Ing. Houari Cobas Gómez: Profesora Asistente y Profesor Instructor respectivamente en el Centro de Investigaciones en Microelectrónica (CIM), Km. 8, Antigua Carretera de Vento, Capdevila, Boyeros, Ciudad de La Habana, Cuba, P.O. Box 8016, Habana 8, telef. y correo electrónico (537) 2663047, sonnia.pavoni@electrica.cujae.edu.cu, (537) - 2663051, hcobas@electrica.cujae.edu.cu. respectivamente.

Lic. Ángela Zayas Tamayo y la Ing. Estrella Álvarez: desempeñan sus actividades en el Centro Nacional de Investigaciones Científicas (CNIC) Av. 25 esq. 158, Nº 15202, Cubanacán, Playa, Ciudad Habana, Cuba, telef. y correos electrónicos (537) 2084792, angela.zayas@cnic.edu.cu. y (537) 2085238, estrella.alvarez@cnic.edu.cu. respectivamente.

Dr. Fabriciano Rodríguez: Jefe del Grupo de Investigaciones en Biosensores en el CIM, telef. (537) 2663047, correo electrónico fabriciano.rodriguez@electrica.cujae.edu.cu.

Dr. Rolando Contreras Alarcón: Director del Grupo DIRAMIC en el CNIC, teléfono (537) 2080959, correo electrónico rolando.contreras@cnic.edu.cu.

Resumen

Se reportan y discuten resultados experimentales de la detección voltamétrica del crecimiento de la bacteria Escherichia coli, con un sensor compuesto por dos electrodos de platino fabricado en tecnología de capas delgadas. Se utilizaron muestras preparadas a partir de cepas de Escherichia coli ATCC 25922 en medio de cultivo DIRAMIC Kit Diagnóstico. Los experimentos electroquímicos consistieron en voltametría cíclica a 20 mV/s y voltametría de barrido lineal a 5 mV/s, 10 mV/s, 20 mV/s y 50 mV/s. Como resultado se observó un pico de corriente anódica en los voltamogramas para las suspensiones que se encontraban en las fases de crecimiento acelerado y exponencial. No se obtuvo pico de corriente para las muestras en fase de latencia. El tiempo de detección del primer pico de corriente anódica estuvo inversamente relacionado con la concentración inicial de microorganismos.

Palabras clave: Crecimiento de bacterias/ Escherichia coli/ Sensor de capas delgadas/ Voltametría cíclica/ Voltametría de barrido lineal.

Evaluation of a thin film sensor for the voltammetric detection of growth of Escherichia coli

Summary

The experimental results of the voltammetric detection of Escherichia coli growth, with a sensor composed of two platinum electrodes manufactured in thin film technology, are reported and discussed. The samples were prepared starting from the Escherichia coli ATCC 25922 strain in DIRAMIC Diagnostic Kit culture media. The electrochemical experiments consisted of cyclic voltammetry at 20 mV/s and linear sweep voltammetry at 5 mV/s, 10 mV/s, 20 mV/s and 50 mV/s. Voltammograms of bacteria samples in acelerate and exponential growth phases showed an anodic current peak. In the bacteria samples in plateau growth phase, peak current was not observed. There was found an inverse relation between the detection time of the first anodic current peak and the initial concentration of microorganisms.

Key words: Bacteria Growth/ Cyclic Voltammetry/ Escherichia Coli/ Linear Sweep Voltammetry/ Thin Film Layer Sensor.

Finalizado: 16/11/2005 Recibido: 06/12/2005 Aceptado: 06/03/2006

I. INTRODUCCIÓN

Las enfermedades infecciosas continúan siendo una de las principales causas de morbilidad y mortalidad humanas, y la detección de microorganismos responsables de estas enfermedades es uno de los propósitos fundamentales de los laboratorios de microbiología. Como parte de los crecientes esfuerzos para desarrollar nuevos procedimientos que permitan minimizar el tiempo del diagnóstico microbiológico, se han investigado gran número de sensores y biosensores que utilizan diversos mecanismos de transducción, como por ejemplo, óptico, piezoeléctrico y electroquímico [1].

En particular, el uso de las técnicas electroquímicas en sensores y biosensores ha sido prominente en la literatura y ha constituido la base de los biosensores con más éxito comercial para la detección de diversos analitos. La mayoría de estos dispositivos utilizan electrodos modificados, material biológico inmovilizado e incluso, muchos se combinan con técnicas de reconocimiento molecular [1, 2]. Sin embargo, en el terreno microbiológico, la aplicación directa de los mecanismos de transducción electroquímica a cultivos microbianos, que resulta una alternativa más económica, ha sido menos abordada.

Lógicamente, el éxito de las técnicas electroquímicas depende en gran medida de las características de los electrodos empleados. El desarrollo de la tecnología de la microelectrónica se extendió a la fabricación de sensores electroquímicos e hizo posible la construcción de electrodos de muy pequeño tamaño, así como el perfeccionamiento de los equipos de medición. Recientemente se reportó un chip de capas delgadas con ocho sensores y su evaluación amperométrica para tareas de secuenciado de proteínas [3]. Entre las características que presenta este dispositivo se encuentran su facilidad de manipulación, la posibilidad de medir con una instrumentación electrónica sencilla, así como su versatilidad para ser utilizado en diversas aplicaciones compatibles con técnicas de alto nivel de automatización. En el presente trabajo se analizó la extensión de la aplicación de uno de los sensores de este chip para la detección voltamétrica del crecimiento de la bacteria Escherichia coli, como una contribución a la necesidad de desarrollar técnicas para la detección microbiológica.

II. DESARROLLO

1. Antecedentes

El comportamiento electroquímico de las células vivientes, así como la existencia de una relación entre las poblaciones de células vivas y el comportamiento de un electrodo, han sido abordados en diferentes publicaciones. Hasta la actualidad, la mayoría de los métodos electroquímicos reportados para aplicaciones microbiológicas han utilizado fundamentalmente aproximaciones impedimétricas y conductimétricas, mientras que las técnicas de potencial variable (voltametrías cíclica, de barrido lineal y de onda cuadrada) sólo han sido analizadas por un número limitado de autores.

Pioneros en la detección microbiológica por métodos impedimétricos fueron Ur [4], Richards [5], Cady [6] y sus colaboradores, quienes se basaron en el monitoreo de la impedancia o de la conductancia de un cultivo, técnica que actualmente se conoce como microbiología de impedancia y que constituye el principio de funcionamiento de los sistemas comerciales más vendidos para la medición del crecimiento bacteriano.

Wilkins y colaboradores, en la segunda mitad de la década del 70 [7, 8], también fueron precursores de la detección microbiológica electroquímica. Ellos utilizaron dos electrodos de platino para determinar potenciométricamente las variaciones de voltaje debido al incremento del hidrógeno molecular producido por los microorganismos. El tiempo transcurrido hasta el inicio del incremento en el voltaje era una función del número de células en el inóculo.

Matsunaga y sus colaboradores [9-12] han sido líderes en la aplicación directa de la voltametría a cultivos de células y han sido fuente de inspiración para trabajos más recientes [13-15]. En sus ensayos de voltametría cíclica con soluciones de levaduras y de bacterias, encontraron picos de oxidación a diferentes potenciales, con la sugerencia de que este método podía servir para la identificación del microorganismo en estudio. La técnica también ha resultado promisoria para la clasificación de especies microbianas [9,15].

2. Materiales y Métodos

2.1 Microorganismo y medio de cultivo

Se utilizaron cepas estándar de Escherichia Coli ATCC 25922 y medio de cultivo líquido DIRAMIC Kit Diagnóstico [16]. Como método de referencia para la detección del crecimiento bacteriano, se midió la turbidez de las muestras con el equipo para el Diagnóstico Rápido Microbiológico DIRAMIC  [17]. Una curva de crecimiento microbiano consta de seis fases [18]. Al inocular bacterias en un medio de cultivo, inicialmente se transita por una fase de latencia en la que los microorganismos se adaptan al nuevo ambiente y no hay crecimiento aparente de las sustancias celulares. Luego ocurre la fase de aceleración positiva, caracterizada por un incremento en la velocidad de crecimiento hasta alcanzar la fase de crecimiento exponencial en la que esta velocidad es constante. La detección electroquímica de las tres últimas fases (desaceleración o retardo, estacionaria máxima y muerte) no se analizaron en este trabajo.

2.2. Sensor

Para realizar las mediciones electroquímicas se utilizó un sensor que forma parte de un chip fabricado en tecnología de capas delgadas sobre substrato de vidrio [3]. El chip contiene ocho estructuras sensoras independientes. En los experimentos que se presentan en este trabajo se utilizó solamente uno de ellos, que consta de dos electrodos de platino: un electrodo de trabajo en forma de disco de 1000 μm de diámetro y un electrodo de pseudoreferencia que rodea al electrodo de trabajo, con aproximadamente el doble del área de este último. Los electrodos de platino se depositaron mediante pulverización catódica; para definir el área activa de los electrodos se depositó nitruro de silicio mediante la técnica de deposición química a partir de la fase de vapor (CVD); finalmente se añadió una capa del polímero octadeciltriclorosilano que delimita una superficie hidrofóbica en la región fuera de los electrodos y constituye una excelente barrera que permite depositar y mantener sobre la superficie sensora una gota bien definida y fácilmente reproducible. Este procedimiento para la aplicación de las muestras tiene la ventaja de permitir una fácil manipulación, además de posibilitar los análisis con pequeños volúmenes de analito y ser compatible con técnicas de alto nivel de automatización.

2.3. Voltametría e instrumentación electroanalítica

Las técnicas voltamétricas incluyen las voltametrías cíclica y de barrido lineal. En ambas se controla la diferencia de potencial entre los electrodos y se mide la corriente. Se caracterizan porque el voltaje se cambia continuamente como una función lineal con el tiempo. En la voltametría cíclica, la diferencia de potencial se recorre desde un valor inicial hasta un valor final, y al llegar a éste el sentido del barrido se invierte. Como resultado la forma de onda es triangular.

La voltametría de barrido lineal es una técnica más simple porque usa sólo medio ciclo. En este caso el voltaje se recorre en una sola dirección, desde el valor inicial hasta el final. Las curvas resultantes de corriente contra diferencia de potencial se denominan voltamogramas. Como convención, se considerará que cuando se incrementa positivamente la diferencia de potencial entre el electrodo de trabajo y el de pseudoreferencia, se está en presencia de un barrido positivo, mientras que en caso contrario el barrido será negativo.

Los experimentos se realizaron con un sistema de instrumentación controlado por computadora mediante un programa en LabView. El sistema consta además de una tarjeta de adquisición de datos National Instruments NI-DAQ 6014 de 16 bits, una tarjeta de expansión CB-68LP y un circuito electrónico que opera como potenciostato [19]. Los datos adquiridos se visualizaron en tiempo real en el monitor de la computadora y también quedaron almacenados para un posterior procesamiento.

2.4. Experimentos

A partir de un cultivo fresco (18-24 h) en placa con la cepa estándar del laboratorio Escherichia Coli ATCC 25922, se tomaron de 3 a 4 colonias y se inocularon en 4,5 ml de medio de cultivo DIRAMIC Kit Diagnóstico de manera que se obtuviera una turbidez de 0,5 McFarland. A partir de esta suspensión base se prepararon otras de 1E+4 cél/ml, 1E+5 cél/ml, 1E+6 cél/ml y 1E+7 cél/ml, en el mismo medio de cultivo. Las muestras se pusieron a incubar a 37 grados, con excepción de las que se midieron en tiempo igual cero. Inmediatamente antes de efectuar la medición electroquímica se sacó la muestra correspondiente de la incubadora y se determinó su nivel de turbidez. Antes de aplicar una nueva gota de analito, el sensor se enjuagó con alcohol y se introdujo en un baño ultrasónico con agua desionizada durante 30 segundos. Para realizar cada medición se tomó una dosis de 10 l de la muestra a analizar y se dispensó sobre la superficie del sensor. Las mediciones electroquímicas consistieron en voltametría cíclica a 20 mV/s y barrido lineal de voltaje a 5 mV/s, 10 mV/s, 20 mV/s y 50 mV/s.

3. Resultados

Al realizar la voltametría cíclica a 20 mV/s con E. Coli en medio cultivo DIRAMIC Kit Diagnóstico, se obtuvieron diferencias en las respuestas electroquímicas según el tiempo de incubación. En la Figura 1 se presentan los voltamogramas resultante para dos muestras preparadas con una concentración inicial de 1E+5 cél/ml. La primera (a) se midió inmediatamente después de su preparación, mientras que la segunda (b) se incubó previamente durante 330 minutos para permitir el crecimiento de los microorganismos. Para la suspensión incubada se obtuvo un pico de corriente de 1,4 μA (1,19 μA con respecto a la línea de base) en 0,2 V durante el barrido positivo, y un pico menor (- 75,2 nA con respecto a la línea de base) en el barrido negativo, en 0,9 V. Para la muestra no incubada no hubo pico en ninguno de los dos sentidos. Como los cambios más notables se observaron en el barrido positivo, los siguientes experimentos se realizaron con voltametría de barrido lineal desde 0 hasta 1V.

Fig. 1. Voltamogramas con muestras de concentraciones iniciales 1E+5 cél/ml de E. coli obtenidos con voltametría cíclica a 20 mV/s. a) Muestra sin incubar. b) Muestra incubada durante 330 minutos y turbidez de 3,4 McFarland (la línea punteada indica la línea de base). Las flechas indican el sentido del barrido.

En la Figura 2a se presentan los resultados de mediciones de voltametría de barrido lineal realizadas con suspensiones de E. Coli en diferentes momentos del crecimiento, preparadas inicialmente con una concentración de 1E+5 cél/ml. Como puede observarse, las respuestas de corriente de las dos primeras muestras tuvieron características similares a la presentada en la Figura 1a, mientras que a partir de la tercera muestra, incubada durante 199 minutos y con una turbidez de 1,83 McFarland, ya empiezan a aparecer los picos de corriente, y estos son más pronunciados con el aumento de la concentración de microorganismos. En la Figura 2b se aprecia el incremento de la corriente pico con el aumento de la velocidad de barrido en ensayos realizados con muestras de concentración inicial 1E+5 cél/ml y período de incubación de 341 minutos. Al realizar un ajuste por regresión lineal de la variación de los valores de la corriente pico con respecto a la raíz cuadrada de la velocidad de barrido, se obtuvo una relación lineal con un coeficiente de correlación de 0,991. Además, puede notarse que con el aumento de la velocidad, la diferencia de potencial correspondiente al pico de corriente se desplazó en sentido positivo del eje.

Fig. 2. Curvas de barrido lineal de voltaje obtenidas con muestras de Escherichia coli en medio de cultivo DIRAMIC Kit Diagnóstico. a) Voltamogramas realizados a 20 mV/s con muestras de concentración inicial de 1E+5 cél/ml, en diferentes momentos del crecimiento. b) Voltamogramas obtenidos con diferentes velocidades de barrido, con muestras de concentración inicial de 1E+5 cél/ml y tiempo de incubación de 341 min.

En la Figura 3 se han representado, con respecto al tiempo de incubación, los valores de turbidez correspondientes a las muestras antes de ser medidas electroquímicamente y los valores de corriente pico obtenidos con diferentes velocidades de barrido. Nuevamente se aprecia como una tendencia (Fig. 3b), que con el aumento de la velocidad de barrido aumentó el nivel del pico de corriente. Sin embargo, es interesante observar que el tiempo a partir del cual comienzan a manifestarse los picos de corriente resultó independiente de la velocidad de barrido y que, además, estuvo relacionado con el comienzo de la fase de crecimiento acelerado. Para las muestras tomadas entre las 2,7 h y las 5 h, se observó que la intensidad de la corriente pico aumentó linealmente con el incremento de la turbidez, pero esta razón de crecimiento cambió para las mediciones tomadas próximas a la sexta hora. La intensidad del pico declinó para 5 mV/s, varió muy poco para 10 mV/s, mientras que aumentó para 20 mV/s y 50 mV/s.

Fig. 3. a) Valores de turbidez determinados con el equipo DIRAMIC. b) Valores de corriente pico obtenidos en los voltamogramas realizados con diferentes velocidades de barrido.

La Figura 4 muestra los resultados de mediciones realizadas con muestras de E. Coli de concentraciones iniciales diferentes, inoculadas en medio de cultivo. Puede analizarse que la aparición de los picos de corriente en los voltamogramas está relacionada con la concentración inicial del microorganismo. A mayor concentración inicial, se necesita menor tiempo de incubación para que se detecte por primera el pico de corriente. La aparición del pico puede ser tomada como un indicador del comienzo de la fase de crecimiento acelerado y el tiempo a partir de su aparición (tiempo de detección) puede utilizarse para estimar la concentración inicial.

Fig. 4. Mediciones realizadas con muestras de E. coli de concentraciones iniciales diferentes, inoculadas en medio de cultivo DIRAMIC Kit Diagnóstico. Concentraciones iniciales: --1E+4 cél/ml; -- 1E+5 cél/ml; -- 1E+6 cél/ml; -- 1E+7 cél/ml; -- 1E+8 cél/ml. a) Valores de corriente pico obtenidos en voltamogramas con barridos de voltaje de 0 a +1 V a 20 mV/s. b) Valores de turbidez determinados con el equipo DIRAMIC.

4. Discusión

La manifestación de un pico de corriente anódica en los voltamogramas correspondientes a las fases de crecimiento acelerado y exponencial evidencia la oxidación de especies electroactivas asociadas al crecimiento microbiológico. La amplitud del pico aumentó linealmente con el incremento de la raíz cuadrada de la velocidad de barrido, característica que revela condiciones de transferencia de masa controlada por difusión. El corrimiento de la diferencia potencial correspondiente a los picos de corriente con el aumento de la velocidad de barrido de potencial, es un elemento que sustenta la irreversibilidad de este proceso. [21]

Algunos autores explican que el origen del pico de corriente observado en voltamogramas de muestras microbiológicas está dado por la oxidación de sustancias intracelulares y, en particular, responsabilizan a la coenzima A presente en la pared celular como agente mediador en la transferencia electrónica entre las células y los electrodos [9, 11]. Otros autores atribuyen sus resultados voltamétricos a la oxidación de residuos metabólicos y a sustancias extracelulares [15]. Si bien la determinación exacta de las sustancias responsables de la oxidación es todavía un tema bajo investigación, los resultados obtenidos confirman que la oxidación se debe a sustancias relacionadas con el crecimiento microbiano y no con el número directo de células. Esto se puso en evidencia cuando al medir suspensiones justo después de inocularles 1E+8 cél/ml de E. Coli no se obtuvo voltamograma con pico, mientras que con 45 minutos de incubación comenzó a observarse el pico de corriente.

Por otra parte, la irreversibilidad del sistema no necesariamente implica un proceso de transferencia de electrones irreversible, sino que puede estar determinada por reacciones químicas siguientes. Por ejemplo, se han reportado métodos de esterilización [11,12] basados en la transferencia directa de electrones entre el electrodo y las células microbianas, en los que se ha observado una disminución de la actividad respiratoria y la subsiguiente muerte de la célula. En la presente investigación se ha verificado que al realizar experimentos de voltametría de barrido lineal de forma consecutiva con una misma muestra, el nivel del pico disminuye para cada barrido, hasta que finalmente desaparece.

Los resultados de la Figura 3 muestran que entre las primeras 2,7 h y 5 h de incubación, la amplitud del pico aumentó linealmente con el incremento de la concentración, debido al aumento de la concentración de especies electroactivas. Sin embargo, además de los procesos redox que ocurren en el electrodo, se debe tener en cuenta la influencia de los cambios de impedancia que sufre el medio, relacionados con el crecimiento del microorganismo. Estos efectos comenzaron a manifestarse dos horas después del comienzo de la fase de crecimiento acelerado, cuando la intensidad de la corriente correspondiente al pico disminuyó para los barridos realizados a menor velocidad. Como las células vivas se mueven alrededor del electrodo, ellas podrían adherirse y zafarse dinámicamente de su superficie. De hecho, ha sido reportado que cuando las células se fijan a los electrodos, bloquean el flujo de corriente en una forma pasiva y la impedancia aumenta. Mientras mayor es el número de células pegadas, de mayor magnitud es el incremento en la resistencia que ellas pueden causar [20]. Estas bacterias adheridas actúan como resistores en serie con la resistencia del medio y provocan un incremento de la impedancia, cuyo efecto resulta más notable para el barrido más lento. Por esta falta de control sobre el sistema al medir muestras que han sido sometidas a altos tiempos de incubación no se recomienda correlacionar directamente los valores de corriente pico obtenidos para estos casos, con la concentración de los microorganismos estudiados.

Para determinar la concentración inicial de bacterias en una muestra, es más recomendable evaluar el tiempo de detección del pico de corriente. Se conoce que cuando una célula se inocula en un medio fresco, inicialmente ocurre un período de letargo durante el cual el microorganismo se adapta al nuevo ambiente y no hay crecimiento aparente de las sustancias celulares. La duración del período de letargo es una función de la historia previa. Los resultados presentados en la Figura 4 confirman la relación inversamente proporcional existente entre el tiempo de detección del pico de corriente y el fin de la fase de latencia.

Sobre la reusabilidad del sensor, es importante destacar que los dispositivos investigados se han utilizado durante un año y no han sufrido deterioro.

III. CONCLUSIONES

1. Con el sensor de dos electrodos de platino de capas delgadas se obtuvieron voltamogramas con pico de oxidación para muestras crecidas de Escherichia Coli en medio de cultivo DIRAMIC Kit Diagnóstico, y voltamogramas sin pico para muestras no crecidas.

2. La ausencia de los picos de corriente en los voltamogramas coincide con la fase de latencia,

3. La aparición del pico se corresponde con el comienzo de la fase de crecimiento acelerado y consecuentemente con la concentración inicial de la bacteria.

4. A mayor concentración inicial, más rápido se detecta por primera vez el pico de corriente.

5. Este resultado permite identificar el comienzo de la fase de crecimiento acelerado de E. Coli.

6. El empleo de este sensor y de este método resulta ventajoso porque se disminuye considerablemente el volumen de la muestra y permite realizar análisis rápidos con una instrumentación electrónica sencilla.

IV. REFERENCIAS

1. Deisingh, A. “Biosensors for Microbial Detection”. Microbiologist, 2003, pp. 30-33.        [ Links ]

2. Bakker, E. “Electrochemical Sensors”. Anal. Chem. Vol. 76, No. 12, 2004, pp. 3285-3298.        [ Links ]

3. Pavoni, S. et al. “Amperometric Microsensors for Screening of Protein Fractions for Enzymatic Activities”. Proc. IX Workshop International Iberchip. La Habana, March 2003, ISBN: 959-261-105-X, pp. 104-106.        [ Links ]

4. Ur, A., Brown, D.F.J. “Impedance Monitoring of Bacterial Activity”. J. Med. Microbiol, Vol. 8, No. 1, 1975, pp. 19-28.        [ Links ]

5. Richards, J.C. et al. “Electronic Measurement of Bacterial Growth”. J. Phys, Vol. 11, 1978, pp 560-568.        [ Links ]

6. Cady, P. et al. “Impedimetric Screening for Bacteria”. J. Clin. Microbiol., Vol. 7, No.3, 1978, pp 273-278.        [ Links ]

7. Wilkins, J.R. et al. “Microbial Detection Method Based on Sensing Molecular Hydrogen”. App. Microbiol. Vol. 27, No.5, 1974, pp 949-952.        [ Links ]

8. Wilkins, J.R. “Use of Platinum for the Electrochemical Detection of Bacteria”. App. Environ. Microbiol. Vol. 36, No. 5, 1978, pp 683-687.        [ Links ]

9. Matsunaga, T., Nakajima, T. “Electrochemical Classification of Gram-Negative and Gram-Positive Bacteria”. Applied and Environmental Microbiology, Vol. 50, No 2, 1985, pp. 238- 242.        [ Links ]

10. Nakamura, N. et al. “Electrochemical Detection of Viable Bacteria in Urine and Antibiotic Selection”. Biosensors and Bioelectronics, Vol. 6, No. 7, 1991, pp 575-580.        [ Links ]

11. Okochi, M., Matsunaga, T. “Electrochemical Sterilization of Bacteria Using a Graphite Modified with Adsorbed Ferrocene”. Electrochimica Acta, Vol. 42, No. 20-22, 1997, pp. 3247-3250.        [ Links ]

12. Okochi, M. et al. “Electrochemical Killing of Vibrio Alginolyticus Using Ferrocene-Modified Electrode”. Electrochimica Acta Vol. 45, No. 18, 2000, pp. 2917-2921.        [ Links ]

13. Subrahmanyam, S. et al. “Cyclic Voltammetric Measurements of Growth of Aspergillus Terreus”. Analytical Sciences, Vol. 17, No. 3, 2001, pp. 481-484.        [ Links ]

14. Vieira, M.J. et al. “The Use of Cyclic Voltammetry to Detect Biofilms Formed by Pseudomonas Fluorescens on Platinum Electrodes”. Biofouling, Vol. 19, No. 4, 2003, pp. 215-222.        [ Links ]

15. Corton, E. et al. “A Novel Electrochemical Method for the Identification of Microorganisms”. Electroanalysis, Vol. 13, No. 12, 2001, pp. 999-1002.        [ Links ]

16. Contreras, R. et al. “Juego para el Diagnóstico Microbiológico”. Oficina Cubana de la Propiedad Industrial, Certificado de Autor de Invención CU 22708 A1, Cuba, 1997, 14 pp.        [ Links ]

17. Contreras, R. et al. “Equipo y Método para el Diagnóstico Rápido Microbiológico”. Oficina Cubana de la Propiedad Industrial, Certificado de Autor de Invención CU 22549 A1, Cuba, 1999, 32 pp.        [ Links ]

18. Llop, A., et al. “Microbiología y Parasitología Médicas” Tomo I, Capítulo 7, La Habana, Editorial Ciencias Médicas, 2001, pp. 45-54.        [ Links ]

19. Cobas, H. et al. “Sistema Basado en la Instrumentación Virtual para Mediciones Voltamétricas”. Proc. XI Workshop International Iberchip, Salvador de Bahía, 2005, pp. 358-359.        [ Links ]

20. Yang, L. et al. “Interdigitated Microelectrode (IME) Impedance Sensor for the Detection of Viable Salmonella typhimurium”. Biosensors and Bioelectronics, Vol. 19, No. , 2004, pp. 1139-1147.        [ Links ]

21.Bard,A., Faulkner, L.R. “Electrochemical Methods: Fundamentals and Applications”. 2nd . New Jersey, Ed., John Wiley & Sons Inc., 2001, Chapter.6, pp. 226-260.        [ Links ]^rND^sBakker^nE^rND^sUr^nA^rND^sBrown^nD.F.J^rND^sRichards^nJ.C^rND^sCady^nP^rND^sWilkins^nJ.R^rND^sWilkins^nJ.R^rND^sMatsunaga^nT^rND^sNakajima^nT^rND^sNakamura^nN^rND^sOkochi^nM^rND^sMatsunaga^nT^rND^sOkochi^nM^rND^sSubrahmanyam^nS^rND^sVieira^nM.J^rND^sCorton^nE^rND^sYang^nL^rND^sBakker^nE^rND^sUr^nA^rND^sBrown^nD.F.J^rND^sRichards^nJ.C^rND^sCady^nP^rND^sWilkins^nJ.R^rND^sWilkins^nJ.R^rND^sMatsunaga^nT^rND^sNakajima^nT^rND^sNakamura^nN^rND^sOkochi^nM^rND^sMatsunaga^nT^rND^sOkochi^nM^rND^sSubrahmanyam^nS^rND^sVieira^nM.J^rND^sCorton^nE^rND^sYang^nL^rND^1A01^sAlmarza, V^nDaniel E^rND^1A02^sMartínez, P^nAntonio^rND^1A01^sAlmarza, V^nDaniel E^rND^1A02^sMartínez, P^nAntonio^rND^1A01^sAlmarza, V^nDaniel e^rND^1A02^sMart¡nez, P^nAntonio

Nota técnica

Radiodifusión digital terrestre análisis del estándar DVB-T

Almarza, V., Daniel E. Martínez, P., Antonio

Ing. Daniel E. Almarza V.: Jefe de Transmisiones de DIRECTV™, Urb. Colinas de los Caobos, Calle Bella Vista, Edif.. DIRECTV, Caracas 1050, Telef. 0212-7097206, fax 0212-7938596, correo electrónico dalmarza@directvla.com.ve.

Ing. Antonio Martínez P.: Profesor Adscrito al Dpto. de Comunicaciones de la Escuela de Ingeniería Eléctrica, Universidad Central de Venezuela, Ciudad Universitaria, Los Chaguaramos, Caracas 1051, Telef. 0212-6053300, fax 0212-6053105, correo electrónico martinan@ucv.ve.

Resumen

La radiodifusión digital terrestre de señales de televisión sigue en desarrollo. Uno de los últimos sistemas de este tipo, Digital Video Broadcasting-Terrestrial (DVB-T), ya se encuentra en operación en muchos países alrededor del mundo. En el presente trabajo se analizan las características de esta tecnología. Se discute el desarrollo de la televisión digital terrestre, el procesamiento de la señal de televisión para su difusión en el dominio digital, los métodos de codificación de estas señales así como las técnicas de multiplexaje y modulación empleadas. El resultado de esta investigación documental –basada en la indagación exhaustiva, sistemática y rigurosa de diferentes fuentes relacionadas con el tema– ofrece una descripción de las capacidades de este sistema, presentándolo como una alternativa robusta y flexible para las operadoras de televisión, que podrán mantener, e incluso ampliar, el área de cobertura típica de un sistema analógico empleando sólo una fracción de la potencia consumida actualmente.

Palabras clave: CODFM/ DVB-T/ MPEG/ QAM/ Radiodifusión/ Televisión digital.

Terrestrial digital broadcasting DVB-T standard analysis

Abstract

The terrestrial digital broadcasting of television signals continues to develop. One of the last systems of this type, Digital Video Broadcasting-Terrestrial (DVB T), is already operational in many countries around the world. The paper analyzes the features of this technology. It includes the terrestrial digital television development, television signal processing for digital broadcasting, codification methods of these signals, as well as multiplexing and modulation techniques. The result of this theoretical investigation –based on the rigorous, systematic, and exhaustive research of different sources related to this topic– offers a description of system capabilities, showing it as a flexible and robust alternative for television operators, who will be able to match, and even improve on, the area coverage of the typical analog system using only a fraction of the current power consumption..

Keywords: Broadcast/ COFDM/ Digital Television/ DVB-T/ MPEG/ QAM.

I. INTRODUCCIÓN.

El sistema Digital Video Broadcasting (DVB) define un conjunto de estándares que permiten la interoperabilidad de los sistemas de difusión de video digital basados en el estándar Motion Picture Experts Group 2 (MPEG-2) para varios medios de transmisión incluyendo satélite, cable, radiodifusión terrestre, y microondas. Estos estándares también cubren servicios interactivos utilizando diferentes tipos de canal de retorno y prestando funcionalidades tales como el Service Information (SI), entre muchas otras [1]. Los estándares DVB son desarrollados y mantenidos por la Oficina del Proyecto DVB ubicada en Ginebra, Suiza. DVB es un consorcio de unas 300 organizaciones pertenecientes a los sectores público y privado de la industria de la televisión cuyo objetivo es establecer la estructura para la introducción de los servicios de televisión digital basados en el esquema MPEG-2. Dichos estándares son publicados por el European Telecommunications Standards Institute (ETSI).

El presente trabajo ofrece una visión general del estado de desarrollo de la especificación para Televisión Digital Terrestre (TDT) propuesta por DVB: DVB-Terrestrial (DVB-T). En este sentido, se presenta un resumen técnico del procesamiento de la señal en banda base, del método de transmisión y una breve revisión de las características de una red para DVB-T. También se presenta una descripción de la característica de recepción móvil que ofrece este sistema y, finalmente, se presentan las conclusiones obtenidas como resultado de la investigación.

II. DESARROLLO

1. Evolución de la Televisión Digital Terrestre.

DVB-T es el sistema de TDT más popular del mundo, aceptado en más países que ningún otro. Ha sido exitosamente implantado en el Reino Unido, Alemania, Suecia, Finlandia, España, Italia, Holanda, Suiza, Singapur y Australia. Asimismo, se están realizando ensayos en China, Malasia, Tailandia, Vietnam, Ucrania, Azerbaiyán, Croacia y Sudáfrica, entre otros [2].

Sin embargo, el futuro de la TDT es aún incierto. Si se considera la cantidad de canales como el único factor de importancia, podría argumentarse que la TDT tiene poca oportunidad al competir con la TV satelital y el cable. Sin embargo, la TDT posee ciertas ventajas basadas en la posibilidad de recepción portátil y la radiodifusión de programas regionales y/o locales. Los programas regionales podrían ser recibidos con un servicio de televisión por cable, pero no a través receptores portátiles. Además, existen áreas donde no es posible desarrollar redes de cable.

Por otro lado, la transmisión satelital de programas regionales o locales no siempre es económicamente factible, especialmente en países pequeños. En el caso de los radiodifusores públicos que no contemplan implantar servicios de televisión paga, la entrega satelital de su programación impondría un prohibitivo costo adicional debido a la posible necesidad de cifrar programas en virtud de los derechos para su transmisión [3].

Los países de América Latina (por razones de índole económica y política) han sido esquivos a comprometerse con un calendario para su implantación y cada uno la ve con grados de urgencia muy disímiles, algunos con franca indiferencia (como Colombia), y otros (como México) con bastante premura. La decisión de algunos países (como Venezuela) sobre el estándar de TDT que adoptarán, depende en gran parte de lo que decida un gigante como Brasil, que está analizando la factibilidad de utilizar un sistema propio o adoptar un híbrido entre el europeo DVB-T y el japonés Integrated Services Digital Broadcasting (ISDB) [4].

2. Procesamiento de la Señal en Banda Base.

Todos los sistemas DVB son capaces de transportar cualquier tipo de datos que el proveedor de servicio desee. Hace un poco más de diez años atrás, el proyecto DVB publicó los requerimientos mínimos para la primera generación de receptores. Estos requerimientos especificaban la utilización del estándar de video MPEG-2 (“Main Profile at Main Level'', MP@ML(1) ) y dos señales de audio MPEG-1 Capa II [5]. Sin embargo, según McCann [6], un único códec no satisface las necesidades de mercado para todas las aplicaciones DVB. Las directrices para la codificación de audio y video en aplicaciones de radiodifusión basadas en el flujo de transporte MPEG-2 han sido revisadas para agregar más opciones. La última revisión del estándar agrega la opción de video Advanced Video Coding (AVC(2)) como alternativa al MPEG-2 original. El rango de códecs para audio también ha sido ampliado para ofrecer un total de cuatro opciones: MPEG-1 Capa II, Audio Code 3 (AC-3), Digital Theater Systems (DTS) y High-Efficiency Advanced Audio Coding (HE-AAC) [7].

Los nuevos algoritmos de codificación H.264/AVC ofrecen niveles comparables de calidad de video MPEG-2 con una reducción en la demanda de la tasa de bit que oscila en un factor de 2 a 3 [8]. Esta mejora de la eficiencia de codificación es particularmente interesante al considerar aplicaciones que exigen altas tasas de bits, tales como la Televisión de Alta Definición (High Definition Television, HDTV).

Por otro lado, existen actualmente millones de receptores de TV instalados que proporcionan decodificación de “teletexto” a través de los mecanismos de televisión analógica. Se estima, además, que seguirán utilizándose durante cierta cantidad de años en el futuro. Es por ello que DVB contempla un mecanismo que proporciona la entrega de teletexto “analógico” al receptor (abreviado como DVB-TXT).

Además, DVB contempla la radiodifusión de programas de televisión utilizando su sonido original ofreciendo –simultáneamente– el servicio de subtitulado electrónico. También es posible añadir elementos gráficos a las imágenes transmitidas (logotipos de la emisora, avisos publicitarios, íconos de información al televidente, etc.) y servicios para la “guía electrónica de programación” (Electronic Program Guide, EPG).

3. Transmisión en DVB-T

Antes de que la señal banda base pueda ser transmitida, debe pasar por un proceso de codificación de canal y modulación. Por otro lado, es necesario aplicar un mecanismo de forward error correction (FEC) para que el receptor pueda corregir errores producto del ruido u otras perturbaciones sufridas en la trayectoria de transmisión. También debe incluirse algún método de sincronización.

3.1. Codificación de Canal

Para obtener un espectro de densidad de potencia “plano”, los datos en la interfaz de banda base se combinan con el flujo de bits de un generador de ruido pseudo-aleatorio. El byte de sincronía de los paquetes del flujo de transporte es el único que permanece invariable con el objeto de ofrecer un medio para la sincronización.

La protección de error externa se obtiene con un código Reed- Solomon (255 239) que significa que implica la adición de 16 bytes de corrección a los 239 de información. Como los paquetes del flujo de transporte tienen sólo 188 B, los primeros 51 se llevan a cero y no son transmitidos, de lo que resulta un código Reed-Solomon (204 188).

El entrelazado externo no ofrece capacidad de corrección de errores, pero ordena los bytes para facilitar la corrección de grandes ráfagas de error.

Un codificador convolucional con una tasa básica de 1/2 provee la codificación interna. El alto nivel de redundancia se reduce por un mecanismo de “perforado” (puncturing). Esto significa que no todos los bits de salida calculados son transmitidos. Si, por ejemplo, se deja de transmitir cada tercer bit, la tasa residual de código es 3/4 en vez de 1/2. Hay especificadas tasas de codificación de 1/2, 2/3, 3/4, 5/6 y 7/8 [9].

Luego, para minimizar el efecto de los ecos producidos en el trayecto de propagación, se aplica un entrelazado interno. Aquí se combinan 126 bits sucesivos en un bloque dentro del cual son, entonces, entrelazados. Posteriormente, el entrelazador de símbolos utiliza una secuencia pseudo-aleatoria para cambiar el orden de dichos símbolos. El resultado en la señal es un entrelazado en frecuencia dentro de cada símbolo DVB-T.

3.2. Modulación

DVB-T utiliza un esquema denominado multiplexaje por división de frecuencia ortogonal codificado (Coded Orthogonal Frequency Division Multiplexing, COFDM) que se caracteriza por la existencia de símbolos distribuidos en un gran número de portadoras. De esta manera, cada portadora transporta una tasa de bits moderada. Este esquema trabaja en dos modos denominados “2k” y “8k”, según el número de portadoras utilizadas (1705 y 6817, respectivamente).

En transmisiones de señales de radio frecuencia sin línea de vista, entre el receptor y el transmisor ocurren reflexiones o absorciones de la señal, lo que resulta en una degradación de la señal recibida, lo que se manifiesta por la presencia de atenuación plana, atenuación selectiva en frecuencia o interferencia intersimbólica.

En esta técnica COFDM, la ortogonalidad se logra haciendo coincidir los picos del espectro de las subportadoras con los valores nulos (ceros) del espectro de las otras subportadoras pertenecientes al mismo canal, obteniéndose como resultado un perfecto alineamiento y espaciado de las señales portadoras, como lo muestran las Figuras 1 y 2. Los sistemas multi-portadora son ideales en aquellos lugares donde el espectro para radiodifusión terrestre se encuentre saturado.

Figura 1. Ortogonalidad de portadoras en OFDM.

Figura 2. Organización de la trama DVB-T.

En DVB-T, cada símbolo OFDM se combina en una trama de transmisión compuesta por 68 símbolos consecutivos. Cuatro tramas de transmisión consecutivas constituyen una súper-trama. El inicio de cada símbolo COFDM es precedido por “intervalo de guarda” cuyo propósito es incrementar la inmunidad de la señal frente a ecos y reflexiones. El intervalo de guarda consiste en una continuación cíclica de la parte útil del símbolo. Su longitud respecto a la longitud de esta parte del símbolo (denominada “tiempo útil”, TU) puede tomar cuatro valores diferentes: 1/4, 1/8, 1/16 o 1/32, como se muestra en la Tabla I.

Tabla I. Parámetros escogidos para transmisión DVB-T no jerárquica.

Los datos pueden ser modulados utilizando Quadrature Phase Shift Keying (QPSK), 16 o 64 Quadrature Amplitude Modulation (QAM) en diferentes frecuencias portadoras dentro de la banda asignada. Para calcular los símbolos OFDM se utiliza un algoritmo de transformada inversa rápida de Fourier (inverse fast Fourier transform, IFFT). La Tabla II muestra la tasa de bits útil para cada tasa de corrección de errores, tipo de modulación y todas las combinaciones de intervalos de guarda disponibles. En ella se aprecia la flexibilidad del estándar DVB-T: el mercado y los requerimientos de los usuarios de cada país determinan la selección del conjunto más apropiado de parámetros entre una gran cantidad de opciones.

Tabla II. Tasa útil de bits para cada tasa de corrección de errores, cada constelación y para todas las combinaciones de intervalos de guarda.º

En el sistema DVB-T existe la opción de “modulación jerárquica”. Con el uso de esta variante, pueden transmitirse dos flujos de datos independientes sobre un mismo canal de frecuencia de TV utilizando técnicas de modulación distintas [10]. Uno de los flujos, designado como de “alta prioridad” (high priority, HP), presenta gran protección contra ruido e interferencia; mientras que el segundo flujo, el de “baja prioridad” (low priority, LP), está mucho menos protegido. El flujo HP permite la transmisión utilizando una relativamente baja tasa de bits, lo que asegura la recepción incluso en aquellos casos donde se presente una pobre relación portadora-ruido. Por otro lado, el flujo LP permite la transmisión utilizando tasas considerablemente mayores, pero con requerimientos más fuertes en lo que a la relación portadoraruido se refiere.

El flujo HP puede ser utilizado para la transmisión de un servicio que se considere más importante que otros. Quizá una de las posibilidades más interesantes que brinda la modulación jerárquica es su aplicación en sistemas para la prestación simultánea de servicios móviles y fijos: Los servicios móviles requieren mayor intensidad de campo que los fijos, por lo que se puede diseñar un sistema para receptores móviles operando con el flujo HP y, a la vez, obtener muy buena cobertura para los receptores fijos utilizando el flujo LP [11].

3.3. Transmisores en DVB-T

En principio, los transmisores de televisión digital utilizarían las mismas infraestructuras actuales de transmisión para televisión analógica, con lo cual podrían reutilizarse gran parte de los equipos disponibles en la actualidad. En algunas situaciones se podría requerir una nueva antena; si se fuera a emplear la antena existente, habría que tener en cuenta que las señales digitales tendrían que ser combinadas en alta potencia con las señales analógicas actuales (al menos durante la transición analógicodigital), o bien el conjunto debería pasarse por un amplificador multicanal, lo cual conllevaría problemas de filtrado y de no linealidades. Salta a la vista la importancia de prestar especial atención cuando se piense en reutilizar recursos en las estaciones de transmisión.

4. Características de las Redes DVB-T

4.1. Redes Multi-Frecuencia

En las redes DVB-T se encuentra como parte de su conjunto los transmisores con señales de programas independientes y con frecuencias de radio individuales. Esto es lo que se conoce como redes multi-frecuencia (Multi-Frequency Networks, MFN). Cuando se propone que un número de transmisores formen parte de una red específica, son más los procesos administrativos que se llevan a cabo que los técnicos. La cantidad de canales de radiofrecuencia necesarios para una red específica depende de los objetivos de planificación (estudios de cobertura); de allí la especificación del tipo de modulación asociado con la tasa de código aplicada para una transmisión específica.

4.2. Redes de Frecuencia Única

En una red de este tipo todos los transmisores utilizan el mismo canal de radio frecuencia, aprovechando las ventajas que ofrece COFDM.

Cada operador de un transmisor en una red de frecuencia única (Single Frequency network, SFN) debe respetar una regla de oro: radiar al mismo tiempo, el mismo bit y en la misma frecuencia.

En el lado demodulador se recibirán varias señales idénticas separadas por un cierto retardo (que nunca será mayor a un intervalo de guarda).

En una red SFN, la transmisión debe estar sincronizada en tiempo y frecuencia de manera muy cuidadosa. Dentro de las limitaciones que se pueden mencionar en lo que es el dominio de la frecuencia de una red SFN, la más importante es precisamente controlar ambos procesos de conversión ascendente de las señales COFDM y, además, el procesamiento del reloj del modulador COFDM. En cuanto al dominio del tiempo, la limitante más importante recae en los retardos introducidos sobre la red de distribución, que deben ser igualados en la fuente (multiplexor DVB) de cada antena transmisora que, a su vez, deberá radiar símbolos COFDM idénticos en el mismo instante.

5. Recepción Móvil

A pesar de que DVB-T no fue originalmente concebido para la recepción móvil, su desempeño ha sido tal que, hoy en día, esta característica constituye uno de los servicios comerciales básicos en la oferta de la TDT. Pruebas operativas realizadas en entornos reales han impulsado el desarrollo de una variedad de técnicas para la optimización de su desempeño. Por ejemplo, la utilización de receptores con diversidad de dos antenas ofrece una mejora de unos 5 dB en hogares y una reducción del 50% de errores esperados en automóviles [2].

Ahora bien, la recepción móvil exige la consideración de una serie de factores: El receptor debe “perseguir” las variaciones en tiempo y en frecuencia. También debe considerarse una correcta estimación de canal. Adicionalmente, el receptor debe ser capaz de compensar distorsiones llamadas “derrames FFT” (FFT leakage) que se producen por la falta de ortogonalidad de las portadoras DVBT que, a su vez, tienen su origen en la variación temporal del canal. La red debe entregar suficiente intensidad de campo y una alta relación portadora-ruido en gran cantidad de lugares para ofrecer cierta confiabilidad de servicio. De todo esto se desprende que la recepción móvil demanda un receptor adecuado y un correcto diseño de red.

III. CONCLUSIONES

1) Desde su concepción, en 1993, el Proyecto de DVB ha establecido, más allá de toda duda, el valor y la viabilidad de la cooperación en el desarrollo de estándares digitales abiertos de televisión.

2) Entre ellas, DVB-T describe un ambicioso y versátil sistema para la transmisión terrestre de todo tipo de señales digitales.

3) El sistema está fundamentado en el uso eficiente del espectro mediante técnicas avanzadas de modulación que minimizan las pérdidas de información en la recepción cuando se encarga a un gran número de portadoras procesar, con bajas tasas de bit, la información de entrada al modulador.

4) El resultado de la combinación de estas técnicas convierten a DVB-T en uno de los sistemas de transmisión digital terrestre más robusto, sofisticado y flexible disponible hoy en día.

Notas

(1) Combinación de perfil y nivel MPEG-2 que implica la utilización de formato de croma 4:2:0; resolución de 720x576; caudal máximo de 15 Mbps y presencia de tramas I, P y B.

(2) Título oficial del estándar desarrollado por el Joint Video Team (JVT) y adoptado por la Unión Interna-cional de Telecomunicaciones como ITU-T H.264 y por la Organización Internacional de Estándares como ISO/IEC MPEG4 Parte 10 (formalmente ISO/IEC 14496-10).

Agradecimiento

Los autores manifiestan su agradecimiento a la gerencia del Centro de Transmisiones de DIRECTV™ por permitir la utilización de recursos de dicha empresa para la realización de esta investigación.

IV. REFERENCIAS

1. Wipro Technologies, Multimedia Home Platform, the Need for a Standard, Santa Clara, Wipro Technologies, 2001. 11 pp.        [ Links ]

2. DVB Project, DVB-T Terrestrial - the Latest Developments in the World’s Most Successful DTT Standard. Géneve, DVB Project Office, 2004. 2 pp.        [ Links ]

3. Møller, L. G. Digital Terrestrial Television – the 8k System. EBU Technical Review, 266, 1995. pp. 40-50.        [ Links ]

4. Yances, G. Calendario incierto para la DTV en América latina, TV y Video, 11(7), 2006. pp. 8-10.        [ Links ]

5. Wood, D. The DVB Project: Philosophy and Core System. Electronics & Communication Engineering Journal, 9(1), 1997. pp. 5-10.        [ Links ]

6. McCann, K. HDTV Options in DVB Systems – is There Life After MPEG-2? En: ZetaCast (Ed.) IBC-2005, SMPTE, Amsterdam, 2005. 20 pp.        [ Links ]

7. McCann, K. New Toolbox, DVB-Scene, 12, 2004. p. 5.        [ Links ]

8. Poop, H. MPEG’s Advanced Audio Codig (AAC). DVBScene, 12, 2004. p. 8.        [ Links ]

9. Ladebusch, U. y Liss, C. Terrestrial DVB (DVB-T): A Broadcast Technology for Stationary Portable and Mobile Use. Proceedings of the IEEE, 94 (1), 2006. pp. 183-193        [ Links ]

10. Schertz, A. y Weck, C. Hierarchical Modulation. DVB-Scene, 6, 2003. pp. 14-15        [ Links ]

11. Nokes, C.R. y Mitchell, J.D. Potential Benefites of Hierarchical Modes of the DVB-T Specification. En: IEE Colloquium Digest 1999/072. London, 6 pp.        [ Links ]^rND^1A01^sMalobabic^nSlavica^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sGarcía Sánchez^nFrancisco J^rND^1A01^sMuci^nJuan^rND^1A01^sMalobabic^nSlavica^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sGarcía Sánchez^nFrancisco J^rND^1A01^sMuci^nJuan^rND^1A01^sMalobabic^nSlavica^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sGarc¡a S nchez^nFrancisco J^rND^1A01^sMuci^nJuan

Modelado unidimensional del sistema óxido-silicio intrínseco-óxido

Malobabic, Slavica Ortiz-Conde, Adelmo García Sánchez, Francisco J. Muci, Juan

Los autores del presente artículo desempeñan sus actividades en el Laboratorio de Electrónica de Estado Sólido, Universidad Simón Bolívar, Caracas, Telf. 58-212-9064010, fax 58-212-9064025.

Ing. Slavica Malobabic: estudiante de Maestría, correo electrónico smalobabic@ieee.org.

Dr. Adelmo Ortiz – Conde y Dr. Francisco J. García Sánchez: Profesores Titulares, correos electrónicos ortizc@ieee.org y fgarcia@ieee.org respectivamente.

MSc. Juan Muci: Profesor Asociado, correo electrónico jmuci@usb.ve.

Resumen

En este trabajo se presenta un modelo físico unidimensional para el sistema óxido - silicio intrínseco - óxido basado en la solución del potencial versus la distancia. Se demuestra que las dos soluciones anteriores aproximadas y analíticas, son completamente equivalentes para los casos cuando el campo eléctrico se anula o no dentro del semiconductor. Se presentan soluciones aproximadas asintóticas que son comparadas con los resultados exactos obtenidos con cálculo numérico iterativo. Se obtienen aproximaciones analíticas para los potenciales superficiales en conducción fuerte y débil también. Los resultados muestran una exactitud excelente de esta formulación.

Palabras clave: Modelado compacto de MOS/ MOSFET de una compuerta/ MOSFET con el cuerpo no dopado/ canal intrínseco/ SOI.

One-dimensional model of the undoped oxide-silicon-oxide system

Abstract

A physical model of the one-dimensional undoped oxide-silicon-oxide system is presented based on the solution of its potential versus distance. It is proved that both previous approximate analytical solutions, for the cases when the electric field does and does not vanish inside the semiconductor, are completely equivalent. Approximate asymptotic analytical solutions are presented and compared to exact numerical results calculated by iteration. Analytic approximations for surface potentials in strong- and weak-conduction are also obtained. The results attest to the excellent accuracy of this formulation.

Keywords: - MOS compact modeling, Single MOSFET/ Undoped body MOS/ Intrinsic channel/ SOI.

Finalizado: 15/11/2005 Recibido: 14/12/2005 Aceptado: 01/03/2006

I. INTRODUCCIÓN

La miniaturización de la tecnología convencional MOSFET ha encontrado limitaciones severas debido a los efectos de canal corto [1, 2]. Por otra parte, la tecnología SOI (“Silicon-On- Insulator·) presenta mayor inmunidad [3-7] a los efectos de canal corto debido a que usa películas muy delgadas con fuerte acoplamientos entre compuertas. Debido a esta ventaja comparativa, los dispositivos SOI MOSFET han empezado a sustituir a los MOSFET convencionales y la miniaturización se ha mantenido hasta el presente. La tendencia de la miniaturización es conocida como Ley de Moore debido a que Moore la pronosticó en 1965 [8]. La miniaturización de los MOSFET también ha permitido que estos dispositivos incursionen exitosamente en el rango bajo de las microondas [9-11] durante la última década. Dos aplicaciones recientes han evidenciado la superioridad del dispositivo SOI con respecto al MOSFET convencional: microprocesadores SOI con mas del 20% por ciento de mejora en la velocidad [4, 12]; y amplificadores RF SOI con mayor eficiencia [11].

El sistema óxido-silicio intrínseco-óxido (OSO) es la estructura básica de la tecnología SOI. Entre los dispositivos SOI MOSFET hay dispositivos con una compuerta (SG), dos compuertas (DG), tres compuertas (TG) y compuerta cilíndrica (GAA). Estos dispositivos avanzados MOSFET se están fabricando en diferentes configuraciones incluyendo planar, vertical, FinFET, y varias otras geometrías en tres dimensiones [11].

Para el modelado de los dispositivos MOSFET se requieren modelos físicos muy precisos y compactos que a la vez sean eficientes computacionalmente [13]. Estos requerimientos son mas fáciles de cumplir en el caso de los MOSFETs con cuerpo no dopado o intrínsecos por la falta de la carga fija en el canal y aun más fácil en el caso de los MOSFET de una compuerta (SG MOSFET) con el canal ultra delgado. Para este propósito los autores han propuesto recientemente [14,15] el modelo de la corriente en el drenador basada en el potencial para los DG MOSFET en dimensiones nanometricas simétricos con cuerpo no dopado. Previamente se habia propuesto una solución explicita y analítica para el potencial superficial para dispositivos simétricos de doble compuerta [16,17].Este último modelo es una extensión de la solución analítica para el potencial superficial de SG MOSFET de bulto basada en función de Lambert [18].

La solución analítica aproximada para el potencial versus la distancia para el sistema óxido silicio óxido en una dimensión fue propuesta por Taur [19,20] para el dispositivo de doble compuerta simétrico. Para este caso en particular el campo se anula en el medio de la película semiconductora. Shi and Wong [21] extendieron este análisis para el caso en el que el campo eléctrico no desparece dentro de la película semiconductora. En el análisis que sigue se mostrará que las dos soluciones son equivalentes y se presentará su comportamiento asintótico usando ecuaciones analíticas simples.

I. DESARROLLO

1. Modelado riguroso del potencial

Por simplicidad la formulación de distribución de la carga está basada en la estadística de Maxwell-Boltzmann. Los efectos de confinamiento de mecánica quántica no se consideran, aunque se podrían incorporar más adelante para acomodar la solución para las películas de silicio menores de 5 nanometros donde estos efectos comienzan a tener importancia.

La ecuación de Poisson en una dimensión a través del cuerpo de este dispositivo se puede escribir como [22, 23]

donde ni es el potencial electrostático, is la densidad de la carga intrínseca, q es la carga eléctrica del electrón, ß = q/kT es el inverso del voltaje térmico, es la permitividad del silicio y x es la dirección a través del canal. Haciendo el cambio de variable tradicional en la ecuación de Poisson se obtiene:

donde F es el campo eléctrico. Separando las variables, integrando (2) desde la superficie superior hasta un punto arbitrario se obtiene:

Donde Fsi y sb son el campo eléctrico y el potencial electrostático evaluados en la superficie superior.

El término -1 es una constante de integración arbitraria y fue escogido de manera tal que el término dentro del paréntesis sea cero para . Como el lado derecho de (3) depende solamente de la condición en la superficie superior y el lado izquierdo de (3) puede ser evaluado en cualquier punto este lado debe ser constante. Esta constante ha sido definida [23-25] para el dispositivo SOI general como:

Donde α está definida como el factor de interacción que representa el acoplamiento de la carga entre las dos compuertas. Evaluando (4) en las interfaces de compuerta superior e inferior:

Donde Fsb y sb son el campo eléctrico y el potencial electrostático evaluados en la superficie inferior.

Las condiciones de frontera mixtas en las superficies de las compuertas superior e inferior son respectivamente:

donde VGf y VGb son los voltajes de las compuertas superior e inferior que incorporan el voltaje de banda plana, Cof=εox/tob y Cob=εox/tob son las capacitancias por unidad de área de los óxidos de superior e inferior. Los potenciales electrostáticos en las interfaces y los voltajes de los componentes se ilustrarán gráficamente en la Figura 10 con resultados numéricos para un caso particular.

Resolviendo en términos de campo eléctrico desde (4) e integrando desde un punto arbitrario hasta un punto en la región superior se obtiene:

Aunque esta integral puede ser resuelta de forma rigurosa usando las integrales elípticas, los autores prefieren evaluarlas numéricamente debido a complejidad y en la Sección 3 se propondrá una buena aproximación.

Es conveniente normalizar previamente las ecuaciones para cálculos adicionales. Normalizando la distancia con respecto al grueso del silicio tsi y los voltajes con respecto a ß: xn=x/tSi, ψn=ßψ, ψsfn=ßψsf, ψsbn=ßψsb, VGfn=ß VGf y VGbn=ß VGb, se reescribe (9):

Donde ψn=ßψ, αnα (ß tSi)2, K2q nitSi ß / CSi y CSi εs / tSi es la capacitancía del silicio. La normalización de la combinación de (5) y (7) resulta en:

De la misma manera, para la superficie inferior usando (6) y (8):

Existen dos casos diferentes: a) el campo eléctrico se anula dentro de la película de silicio en el punto donde el potencial de canal llega al máximo ψn (xn=x0n)=ψon b) el campo eléctrico es siempre positivo dentro de la película de silicio.

1.1. El campo eléctrico se anula

Usando (4) en ψn (xn=x0n)=ψon  y el hecho de que el campo eléctrico es cero en este punto se tiene:

Para este caso αn debe ser negativo para obtener un valor real de ψon . Evaluando (10) en ψn=ψon y xn=x0n se obtiene:

lo que representa la distancia desde la superficie superior hasta el punto donde el campo eléctrico es cero. De la misma forma se puede escribir la ecuación para la distancia entre ese punto y la superficie inferior:

La sumatoria de las dos ecuaciones previas debe ser igual a uno:

Las ecuaciones (11)-(13) y (16) definen rigurosamente un sistema de tres ecuaciones en tres variables: ψsf , ψsb y αn para este caso.

1.2. El campo eléctrico no se anula

Como el campo eléctrico no se anula , se puede integrar (10) directamente a través de todo el silicio, ψ=ψsb:

Ecuaciones (11)-(12) y (17) definen rigurosamente un sistema de tres ecuaciones con tres variables: ψsf, ψsb y αn para este caso.

2. Procedimiento riguroso numérico

En vez de resolver directamente el sistema de ecuaciones, es más conveniente usar bisección, donde αn es la variable principal. El procedimiento es el siguiente: a) dado un valor de αn, ψsfn se puede evaluar numéricamente de la solución numérica (11); b) usando αn y (12) ψsbn se puede evaluar también numéricamente; c) entonces, los valores previos de ψsfn, ψsbn y αn se usan en la integral en (16) o (17), dependiendo del caso particular, y este valor se compara a 1. Esta iteración se mantiene hasta que el valor de 1 se obtenga en la iteración con una exactitud dada.

3. Modelado aproximado del potencial

Para dispositivos muy delgados una buena aproximación es ßψ >>1 . Por ende, las ecuaciones (10)- (12) se simplifican:

La integración en (18) se puede hacer analíticamente y existen tres soluciones dependiendo del valor de αn. Aunque estas soluciones parecen diferentes, se demostrará que son equivalentes usando las identidades de las variables complejas.

3.1. αn es negativo

Este caso es análogo al caso del MOSFET de doble compuerta presentado por Taur [19,20]. La integración de (15):

Como el argumento de arcsin debería estar entre 0 y 1, se obtiene la siguiente condición:

La gráfica de xn (ψn) siempre representará el punto en el cual el campo eléctrico se anula y el potencial del canal llega a su extremo, ψ (xn=xn0)=ψon. Para el caso en particular del DG MOSFET simétrico con las dos compuertas bajo el mismo voltaje será el centro del semiconductor: xn0 = 0.5 . Como es el valor  mínimo del potencial, se puede obtener evaluando la condición anterior del lado derecho:

En general, hay dos casos: 1) el punto no existe dentro del semiconductor, 1 < xn0, y el campo eléctrico no se anula; y 2) el punto existe dentro del semiconductor, 0 < xn0 < 1, y el campo eléctrico cambia del signo.

3.2. αn es negativo y x0n >1

Para este caso se puede evaluar (21) en ψn = ψsbn y xn0 debe ser 1:

La solución simultánea de (19), (20) y (24) permite obtener ψsfn, ψsbn, y αn cuando     αn < 0 y xn0 >1

3.3. αn es negativo y x0n <1

Para este caso, se puede obtener evaluando (21) en ψn = ψ 0 y usando (23):

De forma análoga, la región del semiconductor inferior, (1-x0n) se puede obtener (21) en ψn = ψ 0 y reemplazando ψsfn con ψsbn:

Sumando las dos ecuaciones previas:

Observando la ecuación anterior se puede obtener el valor mínimo de αn. Como valor máximo de arcsin es de π / 2 y el mínimo -π / 2 podemos calcular el valor mínimo de αn :

Sustituyendo (28) en (23) se puede obtener el potencial máximo ψ 0 max.

Este mismo resultado fue ya obtenido en [19] para el MOSFET de doble compuerta.

3.4. αn es positivo

La integración de (18), para αn positivo produce:

Evaluando la ecuación previa en ψn = ψsbn:

La solución simultánea de (19), (20) y (31) permite obtener sψsfn, ψsbn, αn, y αn cuando es positivo.

3.5. αn es cero

La integración de (18), para αn igual a cero :

Este resultado se puede obtener evaluando los limites de dos soluciones previas, (21) y (30) cuando αn = 0. Este caso es importante ya que describe al MOSFET convencional no dopado y además permitirá obtener una buena aproximación para el potencial en la siguiente sección.

4. Resultados

La Figura 1 ilustra las diferentes soluciones analíticas del potencial en función de la posición para negativo, cero y positivo, dadas por las ecuaciones (21), (30) y (32)  respectivamente, para un dispositivo con un óxido superior de 2 nm, un óxido inferior de 40 nm, y un espesor de silicio de 10 nm. En esta figura se varía el voltaje de la compuerta inferiory se mantiene fijo el voltaje de la compuerta superior en 2V. Para generar esta figura previamente se resuelve ψsfn, ψsbn y αn para una polarización dada. El caso VGb=+ 5V y αn = -29.44 presenta un xn < 1, es decir existe un punto en la película donde se anula el campo eléctrico. El caso VGb= -1V y αn = +18.96 no presenta ningún punto donde se anule el campo eléctrico y la solución espacial se aproxima a una recta cerca del óxido inferior. El caso VGb = -0.175V y αn= 0 corresponde al MOSFET convencional no dopado.

Fig. 1 Soluciones analíticas del potencial en función de la posición para αn negativo, cero y positivo, dadas por ecuaciones (21), (30) y (32) respectivamente, para un dispositivo con un óxido superior de 2 nm, un óxido inferior de 40 nm, y un espesor de silicio de 10 nm. En esta figura se varía el voltaje de la compuerta inferior y se mantiene fijo el voltaje de la compuerta superior en 2V.

Es importante destacar que las dos soluciones, (21) para αn < 0 y (30) para αn > 0, son completamente equivalentes. Se puede demostrar eso usando la siguiente identidad compleja:

donde i es el numero imaginario y Z es variable arbitraria. Cualquiera de estas dos soluciones tiende a la solución (32) si se toma el límite de αn tendiendo a cero.

La Figura 2 compara la solución numérica rigurosa y la solución aproximada versus el voltaje en la compuerta superior para el dispositivo previamente descrito con un voltaje de la compuerta inferior de cero voltios.

Fig. 2 αn, potenciales campo eléctrico y carga (riguroso - símbolos y aproximado - líneas) versus el voltaje de compuerta superior para el de óxido superior de espesor de 2 nm,  óxido inferior de 40 nm, espesor de silicio de 10 nm, y el voltaje en la compuerta inferior de cero voltios.

Se observa en esta figura que la solución aproximada es prácticamente la misma que la solución rigurosa. En esta figura también se ve que αn = 0 cuando VGf= 0.54 V y ψsb = 0 y cuando VGf = 0.59 V. Como los dos campos eléctricos, el superior e inferior ( Fsf y Fsb), son positivos el punto en el cual el campo eléctrico se anula (ψ( x = x0 ) = ψ0) está fuera del semiconductor para VGf > 0.54 V. Para VGf < 0.54 V, αn es positiva y ψ0 es complejo.

La Figura 3 muestra αn, potenciales, campo eléctrico y carga versus el voltaje de la compuerta inferior para el dispositivo previo con VGf = 2V.

Fig. 3 αn aproximada, potenciales y campo eléctrico versus el voltaje de compuerta inferior para el de óxido superior de espesor de 2 nm, óxido inferior de 40 nm, espesor de silicio de 10 nm, y el voltaje en la compuerta de 2V.

En esta figura se observa que αn = 0 cuando VGb= -0.26 V, VGb = cuando Fsb = 0.50 V, y que VGb= 0 cuando = 0.50 V. Como para VGb > 0.50 V, Fsb < 0 y αn < 0 , el punto en el cual el campo eléctrico desparece (ψ ( x = x0 ) = ψ0 ) está dentro del semiconductor. Para -0.26 V < VGb < 0.50 V, Fsb > 0 y αn < 0 , entonces el punto en el cual el campo eléctrico desparece esta afuera del semiconductor. Para < -0.26 V, αn > 0 y ψ0 es compleja.

En la Figura 4 se observa los potenciales y ψsb y ψsf versus el voltaje de compuerta inferior para un óxido superior de espesor de 2 nm, óxido inferior de 40 nm, espesor de silicio de 10 nm, y dos voltajes en la compuerta superior VGf = 0.5 V y VGf = 2 V.

Fig. 4 potenciales versus el voltaje de compuerta superior para el de óxido superior de espesor de 2 nm, óxido inferior de 40 nm, espesor de silicio de 10 nm, y dos voltajes en la compuerta superior de 2V y 0.5V.

La Figura 5 muestra αn versus el voltaje de compuerta de superior para varios voltajes de la compuerta inferior y los mismos parámetros de la figura previa.

Fig. 5 αn versus el voltaje de compuerta superior para varios voltajes de la compuerta inferior y los mismos parámetros de la figura previa.

La Figura 6 muestra αn versus el voltaje de compuerta superior para varios espesores de silicio, y voltaje en la compuerta inferior de cero voltios.

Fig. 6 αn versus el voltaje de compuerta superior para varios espesores de silicio del dispositivo anteriormente mencionado, y el voltaje en la compuerta inferior de cero voltios.

La Figura 7 muestra αn versus el voltaje de compuerta superior para varios espesores de óxido inferior, y el voltaje en la compuerta inferior de cero voltios.

Fig. 7 αn versus el voltaje de compuerta superior para varios espesores de óxido inferior, y el voltaje en la compuerta inferior de cero voltios.

La Figura 8 muestra αn versus el voltaje de compuerta superior para varios espesores de óxido superior, y el voltaje en la compuerta inferior de cero voltios.

Fig. 8 αn versus el voltaje de compuerta superior para varios espesores de óxido superior, y el voltaje en la compuerta inferior de cero voltios.

La Figura 9 muestra las soluciones analíticas versus la distancia para varios αn, espesor de silicio 20 nm y el resto de los parámetros iguales. El caso de VGb = 27.9V y αn = -37.71 está ilustrado también porque corresponde a dispositivo de doble compuerta no simétrico en el cual las compuertas superior e inferior producen el mismo nivel de inversión. El comportamiento asintótico de αn = 0, presentado en (32), está mostrado con puntos y es muy cercano al caso de VGb = 0.0934 V y αn =0.003. En esta Figura se observa que la solución αn = 0 se aproxima asintóticamente a todas las soluciones cerca de superficie superior. También se puede ver que la solución de αn positivo se aproxima a una línea recta cerca de la superficie inferior. Este comportamiento se puede entender notando que el argumento de arcsinh en (30) presenta un valor grande y la siguiente aproximación se puede usar:

Fig. 9 Soluciones analíticas para espesor de silicio de 20 nm, varios voltajes de la compuerta inferior, αn correspondientes definidos por ecuaciones (21) y (28) respectivamente. También está representado el comportamiento asintótico de αn = 0 (líneas punteadas) y asíntotas para positivo (rayas).

Usando esta aproximación en (30) se obtiene la asíntota:

Las asíntotas para αn positivo están mostradas en la Fig. 9 usando líneas rayadas. El comportamiento para αn negativo esta definido por la función arcsin. Es interesante destacar que arcsin se puede aproximar por [26]:

donde 0 < Z <1, a0 =1.5707288, a1 =-0.2121144, a2 = 0.0742610, y a3 =-0.0187293.

4.1. Aproximación en inversión débil

En la Figura 10 se presentan dos diagramas de bandas a escala para el dispositivo previamente descrito con VGf = 0.3V y VGf = 1V y VGb = 0. Para VGf = 0.3V el dispositivo se encuentra en conducción débil y se obtienen los siguientes valores: ψsf = 0.286V, ψsb = 0.264V, αn = 0.703 , una caída de potencial en el óxido superior Voxf =13.29mV , una caída de potencial en el óxido inferior Voxb= 0.264V. De estos cálculos se obtienen las siguientes aproximaciones: ψsf ψsb VOxb ≈ VGf y VOxf ≈ 0.

Fig. 10 Potencial en el canal dentro del ancho del canal para dos voltajes en la compuerta superior para dos polarizaciones de la compuerta, abajo de voltaje de umbral (arriba), encima de voltaje de umbral (abajo) para SOI MOSFET con cuerpo no dopado

Estas aproximaciones pueden obtenerse observando que en conducción débil se cumple la siguiente aproximación:

Usando la ecuación (19) y la aproximación previa se obtiene:

El segundo término de la ecuación anterior, en este caso particular, es 0.507 y desnormalizándolo da 13.2 mV. Por lo tanto, (38) conduce a  ψsfn 0.287V que es muy cercano al valor esperado de  ψsf = 0.286V. Además se observa en (38) que αn > 0 ya que ψsfn no puede ser un número complejo. Por lo tanto, conducción débil siempre se cumplirá αn > 0. El campo eléctrico está dado por el denominador de (18):

Con la suposición que se hizo para la inversión débil (37) se reescribe: (39):

de donde se puede afirmar que el campo eléctrico no tiene dependencia espacial y además es pequeño. Integrando el campo eléctrico dentro del semiconductor:

Sustituyendo la relación (37) en (40) se obtiene:

dando en este caso particular un valor de ψsb = 0.265V que es muy cercano al esperado de ψsb = 0.264V. Para calcular el voltaje en el óxido de frente se usará la relación (7) rescrita como:

Usando la relación (43) y (38) se obtiene:

Esta aproximación conduce a 13.19 mV que es muy cercano al valor esperado de 13.29 mV. Reescribiendo a (8):

Usando la relación (41) se obtiene:

Esta aproximación conduce a 0.265V que es muy cercano al valor esperadote 0.264V.

4.2. Aproximación en conducción fuerte

Para el caso VGf = 1V, correspondiente a conducción fuerte, se obtienen los siguientes valores: ψsf = 0.574V, ψsb = -0.442V, αn = -2.405, Voxf = 0.423V y Voxb = 0.442V. En este caso, la aproximación

Usando esta aproximación en (19) conduce a:

La solución de esta ecuación,

Ya fue obtenida [18] para el caso del transistor MOSFET convencional. Ahora se consideran dos posibles casos para la interfaz inferior. Si la espalda está en inversión débil y αn es positivo se puede usar la siguiente aproximación:

y la ecuación (20) conduce a:

Si la espalda está en inversión fuerte y αn es negativo ψsfn y imitará el comportamiento de un transistor de doble compuerta simétrico.

III. CONCLUSIONES

1. Se ha presentado un modelo físico para sistema óxido-silicio-óxido no dopado.

2. Las dos soluciones analíticas previas aproximadas del potencial para los casos cuando el campo eléctrico se anula o no dentro del semiconductor son equivalentes.

3. Se han obtenido aproximaciones de los dos potenciales superficiales en función de los voltajes aplicados para los casos de conducción fuerte y débil.

4. Las soluciones aproximadas analíticas fueron presentadas y comparadas a los resultados exactos numéricos calculados por iteración.

5. Los resultados demuestran la excelente precisión de esta formulación.

IV. REFERENCIAS

1. Frank, D. J., Dennard, et al., “Device Scaling Limits of Si MOSFETs and their Application Dependencies,” Proceedings of the IEEE, vol. 89, March 2001. pp. 259 -288.        [ Links ]

2. Doyle, B., et al., "Transistor Elements for 30nm Physical Gate Lengths and Beyond," Intel Tech. J., vol. 06, May 2002. pp. 42-54, See also: http://developer.intel.com/technology/itj/        [ Links ]

3. Fossum, J.G., Trivedi, V. P., and Wu, K., “Extremely Scaled Fully Depleted SOI CMOS”, IEEE Int SOI Conf. , Oct. 2002. pp. 135-136,.        [ Links ]

4. Shahidi, G. G., "SOI Technology for the GHz Era," IBM J. Res. Dev., vol. 46, March May 2002. pp. 121-131, See also: http://researchweb.watson.ibm.com/journal/        [ Links ]

5. Colinge, J.-P., “Novel Gate Concepts for MOS Devices”, 34th European Solid-State Device Research Conference ESSDERC, Sept. 2004. pp. 45-49.        [ Links ]

6. Colinge, J.P., “Multiple-Gate SOI MOSFETs,” Solid-State Electron., vol. 48, 2004. pp. 897-905,        [ Links ]

7. Cristoloveanu, S., and Ferlet-Cavrois, V., “Introduction to SOI MOSFETs: Context, Radiation Effects, and Future Trends”, Int. J. High Speed Electron. Syst., vol. 14, June 2004. pp. 465-487.        [ Links ]

8. Moore, G. E., "Cramming More Components onto Integrated Circuits," Electronics, vol. 38, April 1965. pp. 114-117, See also a reprinted version in Proceedings of the IEEE, vol. 86, Jan. 1998. pp. 82-85        [ Links ]

9. Abidi, A. A., " RF CMOS Comes of Age," VLSI Technology Symp., June 2003. pp. 549-561,        [ Links ]

10. Liou, J.J., Schwierz, F., “RF MOSFET: Recent Advances, Current Status and Future Trends, Solid State Electron., vol. 47, Nov. 2003. pp. 1881-1895,        [ Links ]

11. Ortiz-Conde, A., and García Sánchez, F. J., “Multi-Gate 3- D SOI MOSFETs as the Mainstream Technology in High Speed CMOS Applications (Invited)”, The 11th IEEE International Symposium on Electron Devices for Microwave and Optoelectronic Applications (EDMO), Orlando, USA, Nov. 2003. pp. 115-121,        [ Links ]

12. Park, S.B., et al., " A 0.25-μm, 600-MHz, 1.5-V, Fully Depleted SOI CMOS 64-bit Microprocessor," IEEE J. Solid- State Cir., vol. 34, Nov 1999. pp. 1436-1445,        [ Links ]

13. Van Langevelde, R., Scholten, A.J., Klaassen, D.B.M., “Recent Enhancements of MOS Model 11,” Workshop on Compact Modeling, NSTI-Nanotech 2004, Boston, Massachusetts, U.S.A., vol. 2, March 7-11, 2004. pp. 60-65.        [ Links ]

14. Ortiz-Conde, A., García Sánchez F. J., Muci, J., "Rigorous Analytic Solution for the Drain Current of Undoped Symmetric Dual-Gate MOSFETs", Solid-State Electronics, Vol.49, April 2005. pp. 640-647.        [ Links ]

15. Ortiz-Conde, A., et al., “Analytic Solution for the Drain Current of Undoped Symmetric Dual-Gate MOSFETs", Workshop on Compact Modeling NSTI-Nanotech 2005, Anaheim, California, U.S.A, May 2005. pp. 63-68.        [ Links ]

16. Ortiz-Conde, A., García Sánchez, F. J., Malobabic, S., “Analytic Solution of the Channel Potential in Undoped Symmetric Dual-Gate MOSFETs”, IEEE Trans. Electron Device, Vol. 52, July 2005. pp. 1669-1672.        [ Links ]

17. Malobabic, S., Ortiz-Conde, A., García Sánchez, F. J., "Modeling the Undoped-Body Symmetric Dual-Gate MOSFET", IEEE Int. Caracas Conf. on Cir. Dev. and Sys., (República Dominicana), Nov. 2004. pp. 19-25        [ Links ]

18. Ortiz-Conde, A., García Sánchez, F.J., Guzmán, M., “Exact Analytical Solution of Channel Surface Potential as an Explicit Function of Gate Voltage in Undoped-Body MOSFETs Using the Lambert W Function and a Threshold Voltage Definition Therefrom,” Solid-State Electron., vol. 47, 2003. pp. 2667- 2674.        [ Links ]

19. Y. Taur, “An Analytical Solution to a Double-Gate MOSFET with Undoped Body,” IEEE Electron Device Lett.,vol. 21, 2000. pp. 245–247.        [ Links ]

20. Taur, Y., “Analytic Solutions of Charge and Capacitance in Symmetric and Asymmetric Double-Gate MOSFETs,” IEEE Trans. Electron Devices, vol. 48, 2001. pp. 2861-2869.        [ Links ]

21. Shi, X., Wong, M., “Analytical Solutions to the One- Dimensional Oxide-Silicon-Oxide System,” IEEE Trans. Electron Devices, vol. 50, 2003. pp. 1793-1800.        [ Links ]

22. Ortiz-Conde, A., et al., “The Non-Equilibrium Inversion Layer Charge of the Thin-Film SOI MOSFET,” IEEE Trans. Electron Devices, vol. 36, 1989. pp. 1651-1656.        [ Links ]

23. Liou, J.J., Ortiz Conde, A., García Sánchez, F.J., Design and Analysis of MOSFETs: Modeling, Simulation and Parameter Extraction, Boston, MA: Kluwer Academic Publishers, 1998. pp 36-37.        [ Links ]

24. Ortiz-Conde, A., et al., “On the Charge-Sheet Model of the Thin-Film MOSFET,” ISA Proc. Twentieth Annual Modeling and Simulation Conference, Pittsburgh, PA, U.S.A., vol. 20, 1989. pp. 1341-1345.        [ Links ]

25. Ortiz-Conde, A., et al., “Long-Channel Silicon-On-Insulator MOSFET Theory,” Solid-State Electron, vol. 35, 1992. pp. 1291-1298.        [ Links ]

26. Abramowitz, M., Stegun, I. A., Handbook of Mathematical Functions, New York, Dover Publications, 1972, p 81.        [ Links ]^rND^sFrank^nD. J^rND^sDennard^rND^sDoyle^nB^rND^sShahidi^nG. G^rND^sColinge^nJ.P^rND^sCristoloveanu^nS^rND^sFerlet-Cavrois^nV^rND^sMoore^nG. E^rND^sLiou^nJ.J^rND^sSchwierz^nF^rND^sPark^nS.B^rND^sVan Langevelde^nR^rND^sScholten^nA.J^rND^sKlaassen^nD.B.M^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sMuci^nJ^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sMalobabic^nS^rND^sMalobabic^nS^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sGuzmán^nM^rND^nY^sTaur^rND^sTaur^nY^rND^sShi^nX^rND^sWong^nM^rND^sOrtiz-Conde^nA^rND^sOrtiz-Conde^nA^rND^sOrtiz-Conde^nA^rND^sFrank^nD. J^rND^sDennard^rND^sDoyle^nB^rND^sShahidi^nG. G^rND^sColinge^nJ.P^rND^sCristoloveanu^nS^rND^sFerlet-Cavrois^nV^rND^sMoore^nG. E^rND^sLiou^nJ.J^rND^sSchwierz^nF^rND^sPark^nS.B^rND^sVan Langevelde^nR^rND^sScholten^nA.J^rND^sKlaassen^nD.B.M^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sMuci^nJ^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sMalobabic^nS^rND^sMalobabic^nS^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF. J^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sGuzmán^nM^rND^nY^sTaur^rND^sTaur^nY^rND^sShi^nX^rND^sWong^nM^rND^sOrtiz-Conde^nA^rND^sOrtiz-Conde^nA^rND^sOrtiz-Conde^nA^rND^1A01^sGarcía Sánchez^nFrancisco J^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sMalobabic^nSlavica^rND^1A01^sGarcía Sánchez^nFrancisco J^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sMalobabic^nSlavica^rND^1A01^sGarc¡a S nchez^nFrancisco J^rND^1A01^sOrtiz-Conde^nAdelmo^rND^1A01^sMalobabic^nSlavica

Aplicaciones de la función de Lambert en electrónica

García Sánchez, Francisco J. Ortiz-Conde, Adelmo Malobabic, Slavica

Los autores desempeñan sus actividades en el Dpto. de Electrónica de la Universidad Simón Bolívar, Apartado Postal 89000, Caracas 1080, Venezuela, telef-58-212-9064010, fax 58-212-9064025.

Dres. Francisco J. García Sánchez y Adelmo Ortiz-Conde: Profesores Titulares, correos electrónicos fgarcia@ieee.org y ortizc@ieee.org respectivamente.

Ing. Slavica Malobabic: Estudiante de Maestría, correo electrónico smalobabic@gmail.com.

Resumen

Se presenta una revisión del uso de la función de Lambert en aplicaciones de electrónica. Primeramente se describe brevemente su definición y se mencionan algunas de sus propiedades. Seguidamente se ofrecen ejemplos de cómo aplicar esta función en la solución de algunas ecuaciones transcendentales que involucran exponenciales. Las aplicaciones de esta función a la electrónica se ilustran mediante ejemplos relativos a la solución de problemas de dispositivos bipolares de juntura, modelado de celdas solares bajo iluminación, y modelos de dispositivos MOSFET.

Palabras clave: Función de Lambert/ Junturas no ideales/ Celdas solares/ MOSFETs sin dopaje.

Applications of lambert’s function in electronics

Abstract

A revision of the use of Lambert’s function in electronics applications is presented. Firstly, its definition is briefly described and some of its properties are mentioned. Next, examples are worked out of how to apply this function to the solution of some transcendental equations which contain exponentials. Applications of this function to electronics are illustrated through examples dealing with the solution of problems such as bipolar junction devices, modelling of illuminated solar cells, and MOSFET device modelling.

Keywords: Lambert Function/ Non Ideal Junctions/ Solar Cells/ Undoped MOSFETs.

Finalizado: 11/01/2006 Recibido: 23/02/2006 Aceptado: 13/06/2006

I. INTRODUCCIÓN.

Una gran variedad de problemas en la ciencia y la tecnología están descritos por ecuaciones transcendentales que requieren ya sea de soluciones numéricas iterativas o bien de soluciones analíticas aproximadas. La posibilidad de obtener soluciones analíticas exactas de estas ecuaciones ofrece grandes ventajas desde varios puntos de vista. Una solución analítica describe el comportamiento de la variable de forma general, a diferencia de los resultados numéricos que dependen de las condiciones iniciales. La solución analítica ayuda en el entendimiento intuitivo del problema, facilita la deducción de su comportamiento cuando los parámetros del problema varían, y simplifica el estudio de las perturbaciones. También puede contribuir en la unificación de fenómenos diferentes, y hace que el fenómeno en sí sea más manejable y fácil de entender. En general una solución analítica se puede diferenciar e integrar analíticamente, lo que permite estudiar la variabilidad del fenómeno.

Aunque ciertamente las soluciones numéricas iterativas pueden proveer soluciones tan exactas como se requiera, la solución analítica, por no presentar problemas de convergencia, produce resultados exactos de manera computacionalmente eficiente. Al eliminar la necesidad de iteraciones numéricas, la solución analítica posibilita la evaluación rápida de numerosos casos repetitivos, lo que es de fundamental importancia en situaciones de simulación circuital, donde un modelo se ha de utilizar miles, si no millones, de veces. Aún en los casos en que se decida utilizar iteración numérica, las soluciones analíticas pueden ser útiles para proveer valores iniciales de las soluciones, facilitando así los cálculos iterativos complicados, dependientes del tiempo o multidimensionales.

Existe una clase de ecuaciones transcendentales, las del tipo lineal exponencial, que son muy comunes en ciertos circuitos electrónicos y en el modelado de dispositivos semiconductores. La función de Lambert (W) [1] permite obtener soluciones cerradas y explícitas a estas ecuaciones transcendentales [2,3]. En este trabajo se presentará una revisión de la utilidad de la función de Lambert, empezando por una breve descripción de sus propiedades, seguida de algunos ejemplos de soluciones a ecuaciones transcendentales, así como aplicaciones típicas a problemas de electrónica. Las aplicaciones de esta función a la electrónica se ilustran mediante ejemplos relativos a la solución de problemas de junturas no ideales con resistencias parásitas en serie y en shunt, características corriente voltaje de dispositivos fotovoltaicos bajo iluminación, y modelos de dispositivos MOSFET.

I. DESARROLLO

1. La función de Lambert

La función de Lambert tiene sus orígenes en el trabajo de J. Lambert en el año 1758. Más tarde, en 1779, fue considerada por Euler cuando estudió la ecuación trascendental de Lambert. Fue denominada “W” después del trabajo hecho por E. M. Wright en 1959 [4]. Desde entonces ha venido siendo utilizada esporádicamente en algunas aplicaciones, pero en años recientes la cantidad y diversidad de aplicaciones en las que se ha usado esta función ha ido incrementándose considerablemente. Hasta la fecha se ha usado W en aplicaciones generales tales como ciertos problemas de física [5], electromagnetismo [6], mecánica estadística clásica [7], movimiento de proyectiles [8], generación de ruido gausiano [9,10], solución de exponenciales infinitos [11], solución de la ecuación de Schrödinger [12], etc. En el área de la electrónica se ha empleado W en resolver problemas de diodos con resistencias en serie y en paralelo [13,14], circuitos con transistores bipolares [15], celdas solares [16-18], modelado del fenómeno de ruptura en óxidos delgados [19], diseño de consumo mínimo en circuitos [20], y modelado de transistores de efecto de campo metal-óxido-semiconductor (MOSFETs) [21-26].

La función de Lambert es una función elementalmente implícita, es decir, está definida de forma implícita usando funciones elementales. Formalmente W se define para cualquier z compleja como una función (compleja y de valores múltiples) que es la solución a la ecuación trascendental quizás más simple que exista, la ecuación lineal exponencial, representada por:

En la Figura 1.a se muestra z como el producto de W(z) por el exponencial de W(z) en función de W(z). Intercambiando los ejes se obtiene la función de Lambert W(z) en función de z que se muestra en la figura 1.b. Para argumentos reales x, W(x) es real si x-e-1. Usando la definición de la función de Lambert x=W(x)eW(x) se puede decir que si x=yey, entonces W(x)=y, o lo que es lo mismo,

Observando la Figura 1.b se puede ver que para valores del argumento x<0 existen o bien dos soluciones (-e-1≥x>0) o ninguna (x<-e-1). Para valores reales de W los valores del argumento están limitados a . W tiene dos ramas reales: la rama principal y la rama negativa [27]. La rama principal W0 está definida como:

y la rama negativa W-1 está definida como:

Una de las características que hace atractivo el uso de expresiones basadas en la función de Lambert es que es analíticamente diferenciable e integrable. La primera y segunda derivadas están dadas por

Figura 1. (a) z = W exp(W) en función de W (línea continua), mostrando también las funciones exp(W) y W (líneas quebradas), (b) W en función de z, mostrando la rama principal (línea continua) y la rama negativa (línea quebrada).

La integral indefinida de la función de Lambert es

La función de Lambert se puede representar mediante expansiones en series [28]. Por ejemplo la serie alrededor de z=0 es:

Igualmente existen representaciones asintóticas de W. La asíntota para z grande es

Existe disponible software numérico libre bien comprobado, con precisión numérica arbitraria, para las dos ramas reales de W. Por ejemplo, el Algoritmo 443 publicado en 1973 [29]. Más recientemente, en 1995, se publicó también el Algoritmo 743 de la base de datos TOMS de la librería pública Netlib ( software, escrito en FORTRAN, computa ambas ramas reales de W con la precisión disponible en la plataforma utilizada [31]. También existen aproximaciones eficientes [32]. Varios paquetes matemáticos simbólicos tales como: Maple®, Macsyma® y Mathematica® contienen rutinas optimizadas para el cálculo y manipulación de la función de Lambert, incluyendo su integración y diferenciación. En el paquete Mathematica®. la función de Lambert se denomina con el nombre de función “ProdutLog”. Varias aproximaciones incorporan esquemas iterativos para computar W con una precisión predefinida y usan aproximaciones a tramos para generar suposiciones iniciales [33].

2. Ejemplos de soluciones usando W

A continuación se presentaran algunos ejemplos que ilustran el procedimiento para resolver ecuaciones que contienen productos y cocientes de variables y sus exponenciales o logaritmos. No pretende esto ser una descripción exhaustiva de todos los casos en los que es posible usar W, sino que la intención es indicar la mecánica general del procedimiento a seguir.

Ejemplo 1

Ecuación:

Rescribir la ecuación (15) tomado exponenciales:

Multiplicar por x:

Aplicar W a ambos lados:

Usar definición de W en la parte izquierda:

Solución:

Ejemplo 2

Ecuación:

Rescribir la ecuación (16):

Aplicar W a ambos lados:

Usar definición de W en la parte derecha:

Solución:

Ejemplo 3

Ecuación:

Rescribir la ecuación (21):

Aplicar a W a ambos lados:

Usar definición de W en la parte izquierda:

Solución:

La función de Wright

Se define como función de Wright [4,34] la solución a la ecuación (21), que se representa como

donde ω (omega) es la función de Wright. Comparando las ecuaciones (25) y (26) se puede establecer la equivalencia entre la función de Wright y la función de Lambert:

Ejemplo 4

Ecuación:

Primer procedimiento:

Rescribir la ecuación (28):

Aplicar W a ambos lados:

Usar definición de W en la parte izquierda:

Solución:

Segundo procedimiento:

Rescribir la ecuación (28):

Reagrupar:

Aplicar W a ambos lados:

Usar definición de W en la parte derecha:

Solución:

Identidad:

Igualando las dos soluciones del ejemplo 5 se obtiene:

Lo que también se puede expresar en términos de la función de Wrigt:

Por tanto, en general se cumple la identidad:

Ejemplo 5

Ecuación:

Rescribir la ecuación (41):

Aplicar W a ambos lados:

Usar definición de W en la parte izquierda:

Solución:

La función “glog”:

La función glog [35] es la solución a la ecuación (41) que se representa como

Comparando las ecuaciones (60) y (61) se puede establecer la equivalencia entre la función de glog y la función de Lambert:

Ejemplo 6

Ecuación:

Tomar la raíz cuadrada:

Dividir entre 2:

Aplicar a W a ambos lados:

Usar definición de W en la parte izquierda:

Solución:

Otras ecuaciones tales como x=ey/y2, x=y, y=, etc., pueden resolverse  

también usando la función de Lambert.

3. Aplicaciones

Se presentarán ahora varias aplicaciones típicas de la función de Lambert en la solución de diversos problemas de electrónica.

Aunque no se cubrirán todas las posibilidades, se mostrarán algunas que demuestran la solución explícita de circuitos típicos que comúnmente tienen que resolverse mediante aproximaciones o expresiones aproximadas, mientras que otras aplicaciones que se describen pertenecen al ámbito del modelado de dispositivos electrónicos.

3.1 Ruptura irreversible en óxidos de compuerta ultra delgados

La continua miniaturización de los dispositivos MOS (Metal Óxido Semiconductor) implica una disminución del margen de confiabilidad de la capacidad aislante de los óxidos de la compuerta que los componen. Ante la posibilidad de que ocurra ruptura eléctrica en óxidos muy delgados, se plantea la necesidad de modelar la corriente que atraviesa el óxido después de su ruptura irreversible. Una representación compacta de esa corriente post ruptura, que es adecuada para la simulación en circuitos, viene dada por el siguiente modelo [19]:

donde I0, ω y RDB son parámetros que caracterizan el fenómeno de ruptura irreversible en una primera aproximación. Esta ecuación equivale a una juntura PN con una resistencia en serie. Rescribiendo la ecuación anterior,

Multiplicando ambos lados por y agrupando los términos:

Si ahora se aplica W a ambos lados y se usa la definición de W en la parte izquierda de la ecuación, se tiene que

Resolviendo resulta la corriente de post ruptura a través del óxido:

3.2 Juntura no ideal

El caso anterior representa el ejemplo más sencillo de una juntura no ideal. Sin embargo, en muchos casos ese modelo resulta ser insuficiente para caracterizar una juntura real. En la Figura 2 se presenta un modelo circuital genérico de una juntura no ideal, incluyendo sus elementos parásitos más comunes: una conductancia en paralelo que representa la fuga a través de la juntura propiamente dicha (Gp1), una resistencia en serie que da cuenta de la caída de potencial desde la juntura hasta los contactos (Rs), y una segunda conductancia en paralelo que representa la posibilidad de fuga en la periferia del dispositivo (Gp2).

Figura 2. Modelo circuital genérico de una juntura no ideal incluyendo las resistencias en serie y las conductancias en paralelo parásitas.

La ecuación de la corriente que correspondiente a esta configuración es:

donde I0, es la corriente de saturación inversa del diodo, n es el factor de idealidad que caracteriza la calidad de la juntura, vth es el voltaje térmico =kT/q, k la constante de Boltzmann, T la temperatura absoluta, y q la carga electrónica. Nótese que esta ecuación no tiene la forma de una función explícita de una variable en función de la otra y la única manera de resolverla exactamente es mediante iteración numérica. Sin embargo, utilizando la función de Lambert es posible hallar soluciones explícitas de esta ecuación. Siguiendo un procedimiento similar al del ejemplo anterior, la solución de la corriente en función del voltaje resulta ser [13]:

También es posible resolver el voltaje en función de la corriente:

donde:

Estas soluciones explícitas permiten el estudio directo de las características corriente voltaje de junturas no ideales (diodos reales) y facilitan la extracción de los parámetros intrínsecos y extrínsecos de sus modelos [17].

3.3 Celdas solares

Un caso ligeramente más complicado ocurre cuando se intenta modelar celdas solares bajo condiciones de iluminación. En la Figura 3 se muestra un modelo circuital de un dispositivo fotovoltaico genérico iluminado (celda solar), que incluye la juntura (n, Io), una fuente de corriente fotogenerada (Iph), y la resistencia en serie (Rs) y conductancia en paralelo (Gp) parásitas. La ecuación que describe esta la corriente de la celda es:

De nuevo esta ecuación es implícita, pero usando W, se puede hallar la solución explícita para la corriente: y para el voltaje es:

y para el voltaje es:

La naturaleza explícita de estas soluciones permite calcular inmediatamente la corriente de cortocircuito y el voltaje a circuito abierto. Así mismo, es posible hallar explícitamente el punto de potencia máxima calculando la derivada del producto IV. Estas soluciones también facilitan la extracción de los parámetros del modelo de la celda solar a partir de datos experimentales, como se verá a continuación.

Figura 3. Modelo circuital genérico de una celda solar iluminada.

3.4 Extracción de parámetros de modelos de celdas solares

Las técnicas comunes de extracción de parámetros del modelo de la celda solar usando los datos I-V medidos bajo iluminación usualmente incluyen la optimización numérica del error cuadrático en el eje vertical (corriente) o en el eje horizontal (voltaje). La utilización de soluciones explícitas de la corriente y el voltaje facilitan enormemente estos cálculos. Otros métodos están basados en el uso de funciones auxiliares y otros operadores. Aquí se presentará otro método basado en integración, por ser más inmune a los errores de medición debido a su naturaleza de filtro pasa bajo y porque produce resultados algebraicos de fácil manejo computacional [18]. El procedimiento ilustra la utilidad que ofrece la posibilidad de integrar la función de Lambert.

Se define primeramente una función llamada Co-Contenido CC (I,V) de la siguiente manera:

donde es la corriente de la celda en condiciones de cortocircuito (V=0). Sustituyendo la solución para la corriente dada por la ecuación (67) en la ecuación de CC e integrando con respecto a V resulta una larga expresión que contiene términos con la función de Lambert y las variables I y V. Reemplazando los términos que contienen la función de Lambert de V, usando la ecuación (68) y después de manipulación y simplificación se obtiene la siguiente ecuación algebraica:

donde los cinco coeficientes son funciones de los parámetros del modelo. La extracción se hace calculando la función CC, definida  por la ecuación (69), a partir de los datos experimentalmentemedidos. Seguidamente se procede a ajustar esta función de CC a los datos experimentales medidos mediante la ecuación algebraica (70). Este proceso de ajuste bidimensional produce los valores de los coeficientes de la ecuación (70), de los que se calculan los parámetros del modelo Gp, Rs, Iph, n, y Io de la siguiente manera:

3.5 Fuente de corriente Widlar

La función de Lambert también es útil en la solución de problemas de circuitos electrónicos con transistores bipolares de juntura. Para ilustrar su utilidad se presentará el caso de la fuente de corriente de Widlar [15] cuyo diagrama circuital básico se muestra en la Figura 4.

En esta fuente de corriente el transistor Q1 está conectado en configuración de diodo. Se pretende establecer I2 a partir de los valores de I1 y R2. La ecuación que describe al circuito es:

Obviamente esta ecuación no expresa a 12 de manera explícita, pues esta corriente aparece también dentro del argumento del logaritmo. La solución habría que hallarla por iteración numérica o usando una aproximación, por ejemplo, los primeros términos de una expansión en serie de Taylor del logaritmo. Se buscará entonces una solución usando la función de Lambert. Tomando exponenciales en ambos lados y multiplicando por 12 R2/vth se obtiene:

Figura 4. La fuente de Widlar

Si ahora se aplica la función de Lambert a ambos lados se tiene:

pero se sabe que

luego, finalmente la corriente I2 viene dada en forma explícita por

3.6 Modelado de dispositivos MOSFET

La descripción del potencial electrostático en la superficie del canal, en función de los voltajes en los terminales de los transistores de efecto de campo tipo metal óxido semiconductor (MOSFETs), resulta de principal importancia en la elaboración de los modelos matemáticos que deben representar a estos dispositivos en simulaciones circuitales. En dispositivos convencionales, en los que el cuerpo del canal se encuentra significativamente dopado, la naturaleza de la ecuación que relaciona el voltaje de la compuerta con el potencial superficial no permite plantear una solución analítica explícita del potencial superficial, por lo que debe calcularse mediante iteración numérica o usando soluciones analíticas aproximadas o de validez limitada regionalmente. Los MOSFETs modernos son cada día más de cuerpo ultra delgado que no se encuentra significativamente dopado, es decir es intrínseco [21]. En esas condiciones la ecuación que relaciona el voltaje de la compuerta con el potencial superficial se reduce a una ecuación lineal exponencial como las anteriormente descritas.

Considérese un dispositivo de cuerpo intrínseco genérico de espesor tsi. La ecuación para canal n es

donde VG es el voltaje en la compuerta, VFB el voltaje de bandaplana, el potencial superficial, k la constante de Boltzmann, T la temperatura absoluta, ni la densidad intrínseca de portadores, εs la permitividad del semiconductor, Co la capacitancia del óxido, β=1/vth=q/kT el inverso del voltaje térmico, V el voltaje a lo largo del canal (=0 en el surtidor, =VD en el drenador), y ψ0 el potencial en el medio trasversal del canal. Considerando valores de potencial superficial ψs >> 1 β, la ecuación tiene la siguiente solución explícita en base a la función de Lambert:

donde VGF=VG-VFB y tox y εox son el espesor y la permitividad del óxido, respectivamente. Para espesores tsi del cuerpo del semiconductor muy grandes, ψ0 tiende a cero y el término sin(ζ) tiende a uno, con lo que la ecuación del el potencial superficial se reduce a

Esta forma cerrada y explícita de expresar el potencial superficial facilita enormemente el planteamiento de modelos de MOSFETs modernos tipo SOI (semiconductor-óxido-aislante) de cuerpo ultra delgado, en los que el cuerpo del semiconductor no está dopado, tanto los de una compuerta como los de compuertas múltiples [25]. También permite obtener expresiones analíticas explícitas de la carga, la transconductancia, el voltaje de umbral, etc. [23,26].

4. Comparación de los tiempos de cómputo

Como ya se ha dicho, la utilización de la función de Lambert, además de brindar una alternativa atractiva para la solución explícita exacta de ciertas ecuaciones del tipo lineal exponencial, ofrece la posibilidad de mejorar significativamente la eficiencia computacional, en comparación a las soluciones numéricas iterativas. Para visualizar esta ventaja computacional, es conveniente comparar los tiempos de cálculo requeridos, usando soluciones basadas en la función de Lambert con los de soluciones analíticas aproximadas y soluciones numéricas iterativas. Para esto se usará el caso del modelo de una juntura no ideal con una resistencia en serie y una conductancia en paralelo, calculadas a diez dígitos significativos en una misma plataforma computacional, usando el programa Maple®.

La Figura 5 muestra que la solución explícita exacta, basada en la función de Lambert, requiere tiempos de CPU sólo ligeramente superiores a los de una solución analítica aproximada, que por ende es inexacta y limitada en su alcance. Se ve que la solución basada en la función de Lambert es casi dos órdenes de magnitud más eficiente computacionalmente que la solución exacta mediante iteración numérica.

Figura 5. Comparación de tiempos de cómputo de parámetros del modelo de una juntura no ideal para solución iterativa, exacta y aproximada

III. CONCLUSIONES

1. El uso de la función de Lambert provee soluciones explícitas analíticas y elimina la necesidad de iteraciones numéricas en problemas que incluyan ecuaciones implícitas lineales exponenciales.

2. Las soluciones explícitas basadas en la función de Lambert hacen que el fenómeno que se está describiendo sea más manejable y fácil de entender.

3. Estas soluciones explícitas se pueden evaluar y manipular fácilmente, lo que permite resolver rápidamente numerosos casos repetidos, y facilita el estudio de las perturbaciones.

4. La posibilidad de integración y diferenciación analítica de la función de Lambert abre el camino para elaborar modelos de variabilidad del fenómeno descrito.

5. Adicionalmente, estas expresiones explícitas pueden usarse para obtener suposiciones iniciales para cálculos complicados, iterativos, dependientes del tiempo, o multi dimensionales.

6. Finalmente, la utilidad de la función de Lambert se ve potenciada en la actualidad por la disponibilidad de paquetes computacionales simbólicos de uso común, tales como Macsyma®, Mathematica®, Maple®, etc., que ya contienen rutinas optimizadas para calcular y manipular la función de Lambert.

IV. REFERENCIAS

1. Corless, R.M., et al., “On the Lambert W Function”. Advances in Computational Mathematics, 5:4, pp. 329–359, 1996.        [ Links ]

2. Gosper, R. W. Jr. "The Solutions of yey2=x and yey=x." ACM SIGSAM Bull. 32, pp. 8-10, 1998.        [ Links ]

3. Brian Hayes, “Why W?” American Scientist, 93, March-April, p. 104, 2005.        [ Links ]

4. Wright, E. M. "Solution of the Equation zez=α." Bull. Amer. Math. Soc. 65, pp. 89-93, 1959.        [ Links ]

5. Valluri, S. R.; Jeffrey, D. J.; and Corless, R. M. "Some Applications of the Lambert Function to Physics." Canad. J. Phys. 78, pp. 823-831, 2000.        [ Links ]

6. Jenn, D.C., “Applications of the Lambert W Function in Electromagnetics” IEEE Antennas and Propagation Magazine, 44, pp. 139-142, 2002.        [ Links ]

7. Jean-Michel Caillol, “Some Applications of the Lambert W Function to Classical Statistical Mechanics”, J. Phys. A: Math. Gen. 36, pp. 10431-10442, 2003.        [ Links ]

8. Packel, E. and Yuen, D. "Projectile Motion with Resistance and the Lambert Function." College Math. J., 35, pp. 337- 350, 2004.        [ Links ]

9. Chapeau-Blondeau, F. Monir, A. “Numerical Evaluation of the Lambert W Function and Application to Generation of Generalized Gaussian Noise With Exponent ½”, IEEE Trans. Signal Proc., 50; Part 9, pp. 2160-2165, 2002.        [ Links ]

10. Barry, D. A., Li, L., Jeng, D.S. , “Comments on ‘Numerical Evaluation of the Lambert Function and Application to Generation of Generalized Gaussian Noise with Exponent ½’” IEEE Trans. on Signal Processing, 52, pp. 1456-1458, 2004.        [ Links ]

11. I.N. Galidakis, “On an Application of Lambert's W Function to Infinite Exponentials”, Complex Variables, 49(11), pp. 759- 780, 2004.        [ Links ]

12. Brian Wesley Williams, “Exact Solutions of a Schrödinger Equation Based on the Lambert Function”, Physics Letters A, 334(2-3), pp. 117-122, 2005.        [ Links ]

13. Ortiz-Conde, A., García Sánchez, F.J., Muci, J., “Exact Analytical Solutions of the Forward Non-Ideal Diode Equation with Series and Shunt Parasitic Resistances” Solid-State Electronics, 44, pp. 1861-1864, 2000.        [ Links ]

14. Banwell, T. C. and Jayakumar, A. "Exact Analytical Solution for Current Flow Through Diode with Series Resistance." Electronics Lett. 36, pp. 291-292, 2000.        [ Links ]

15. Banwell, T.C., “Bipolar Transistor Circuit Analysis Using the Lambert W-Function” IEEE Trans. Circuits System - I: Fundamental Theory and Applications, 47, pp. 1621-1633, 2000.        [ Links ]

16. A. Jain and A. Kapoor, “Exact Analytical Solutions of the Parameters of Real Solar Cells Using Lambert W Function” Solar Energy Materials and Solar Cells, 81, pp. 269-277, 2004.        [ Links ]

17. Ortiz-Conde, A., García Sánchez, F.J., “Extraction of Non- Ideal Junction Model Parameters from the Explicit Analytic Solutions of its I–V Characteristics” Solid-State Electronics 49, pp. 465–472, 2005.        [ Links ]

18. [18] Ortiz-Conde, A., García Sánchez, F.J., Muci, J., “New Method to Extract the Model Parameters of Solar Cells from the Explicit Analytic Solutions of their Illuminated I–V Characteristics” Solar Energy Materials & Solar Cells, 90, pp. 352–361, 2006.        [ Links ]

19. Miranda, E., Ortiz-Conde, A., García Sánchez, F.J., Farkas, E., “Extraction of Parameters and Simulation of the Hard Breakdown I-V Characteristics in Ultrathin Gate Oxides” Proceedings of 12th IPFA 2005, Singapore, pp. 150-154, 2005.        [ Links ]

20. Benton H. Calhoun, Alice Wang, and Anantha Chandrakasan, “Modeling and Sizing for Minimum Energy Operation in Subthreshold Circuits” IEEE Journal of Solid-State Circuits, 40, pp. 1778-1886, 2005.        [ Links ]

21. Ortiz-Conde, A., García Sánchez, F.J., "Exact Analytical Solution of Channel Surface Potential as an Explicit Function of Gate Voltage in Undoped-Body Mosfets Using The Lambert W Function and a Threshold Voltage Definition Therefrom“, Solid-State Electronics, 47, Pp. 2067-2074, 2003.        [ Links ]

22. He J., et al., ”Charge-Based Core and the Model Architecture of BSIM5” Proceedings of the Sixth International Symposium on Quality of Electronic Design (ISQED'05), pp. 96-101, 2005.        [ Links ]

23. García-Sánchez, F.J., Ortiz-Conde, A., Muci J., “Subthreshold Behavior of Undoped DG MOSFETs,” Proc of the 2005 IEEE International Conference on Electron Devices and Solid-State Circuits (EDSSC 2005), Hong Kong, pp. 75-80, December 2005.        [ Links ]

24. Giorgio Mugnaini and Giuseppe Iannaccone, “Physics-Based Compact Model of Nanoscale MOSFETs-Part I: Transition From Drift-Diffusion to Ballistic Transport” IEEE Trans. Electron Devices, 52, pp. 1795-1801, 2005.        [ Links ]

25. Ortiz-Conde, A., García Sánchez, F.J. , and Malobabic, S., “Analytic Solution of the Channel Potential in Undoped Symmetric Dual-Gate MOSFETs”, IEEE Trans. Electron Devices, 52, pp. 1669-1672, 2005.        [ Links ]

26. García Sánchez, F.J., Ortiz-Conde, A., Muci, J., “Understanding Threshold Voltage in Undoped-Body Mosfets: An Appraisal of Various Criteria” Microelectronics Reliability, 46, pp. 731-742, 2006.        [ Links ]

27. Jeffrey, D. J.; Hare, D. E. G.; and Corless, R. M. "Unwinding the Branches of the Lambert W Function." Math. Scientist, 21, pp. 1-7, 1996.        [ Links ]

28. Corless, R. M.; Jeffrey, D. J.; and Knuth, D. E. "A Sequence of Series for the Lambert W Function." Proc. of the 1997 Intnl Symp. on Symbolic and Algebraic Computation, Maui, Hawaii. New York: ACM Press, pp. 197-204, 1997.        [ Links ]

29. Fritsch, F. N.; Shafer, R. E.; and Crowley, W. P. "Algorithm 443: Solution of the Transcendental Equation wew=x." Comm. ACM ,16, pp. 123-124, 1973.        [ Links ]

30. Barry, D. A., Barry, S. J., Culligan-Hensley, P. J., “Algorithm 743: WAPR: a FORTRAN Routine for Calculating Real Values of the W-Function,” ACM Trans. Math. Softw., 21, pp. 172–181, 1995.        [ Links ]

31. Barry, D. J., Culligen-Hensley, P. J.; and Barry S. J. "Real Values of the W-Function,” ACM Trans. Math. Softw., 21, pp. 161-171, 1995.        [ Links ]

32. D.A. Barry., et al., "Analytical Approximations for Real Values of the Lambert W-function" Mathematics and Computers in Simulation, 53, pp. 95-103, 2000.        [ Links ]

33. J.P. Body, "Global Approximations to the Principal Real-Valued Branch of The Lambert W- Function," Appl. Math. Lett. 11 (6). Pp. 27-31, 1998.        [ Links ]

34. Corless, R. M. and Jeffrey, D. J. "The Wright ω Function." Artificial Intelligence, Automated Reasoning, and Symbolic Computation (Ed. J. Calmet, B. Benhamou, O. Caprotti, L. Henocque and V. Sorge). Berlin: Springer-Verlag, pp. 76-89, 2002.        [ Links ]

35. Kalman, D. "A Generalized Logarithm for Exponential-Linear Equations." College Math. J., 32, pp. 2-14, 2001.        [ Links ]^rND^sCorless^nR.M^rND^sGosper^nR. W. Jr^rND^nBrian^sHayes^rND^sWright^nE. M^rND^sValluri^nS. R^rND^sJeffrey^nD. J^rND^sCorless^nR. M^rND^sJenn^nD.C^rND^nJean-Michel^sCaillol^rND^sPackel^nE^rND^sYuen^nD^rND^sChapeau-Blondeau^nF^rND^sMonir^nA^rND^sBarry^nD. A^rND^sLi^nL^rND^sJeng^nD.S^rND^nI.N^sGalidakis^rND^nBrian^sWesley Williams^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMuci^nJ^rND^sBanwell^nT. C^rND^sJayakumar^nA^rND^sBanwell^nT.C^rND^nA^sJain^rND^nA^sKapoor^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMuci^nJ^rND^nBenton H^sCalhoun^rND^nAlice^sWang^rND^nAnantha^sChandrakasan^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sHe^nJ^rND^nGiorgio^sMugnaini^rND^nGiuseppe^sIannaccone^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMalobabic^nS^rND^sGarcía Sánchez^nF.J^rND^sOrtiz-Conde^nA^rND^sMuci^nJ^rND^sJeffrey^nD. J^rND^sHare^nD. E. G^rND^sCorless^nR. M^rND^sFritsch^nF. N^rND^sShafer^nR. E^rND^sCrowley^nW. P^rND^sBarry^nD. A^rND^sBarry^nS. J^rND^sCulligan-Hensley^nP. J^rND^sBarry^nD. J^rND^sCulligen-Hensley^nP. J^rND^sBarry^nS. J^rND^nD.A^sBarry^rND^nJ.P^sBody^rND^sKalman^nD^rND^sCorless^nR.M^rND^sGosper^nR. W. Jr^rND^nBrian^sHayes^rND^sWright^nE. M^rND^sValluri^nS. R^rND^sJeffrey^nD. J^rND^sCorless^nR. M^rND^sJenn^nD.C^rND^nJean-Michel^sCaillol^rND^sPackel^nE^rND^sYuen^nD^rND^sChapeau-Blondeau^nF^rND^sMonir^nA^rND^sBarry^nD. A^rND^sLi^nL^rND^sJeng^nD.S^rND^nI.N^sGalidakis^rND^nBrian^sWesley Williams^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMuci^nJ^rND^sBanwell^nT. C^rND^sJayakumar^nA^rND^sBanwell^nT.C^rND^nA^sJain^rND^nA^sKapoor^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMuci^nJ^rND^nBenton H^sCalhoun^rND^nAlice^sWang^rND^nAnantha^sChandrakasan^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sHe^nJ^rND^nGiorgio^sMugnaini^rND^nGiuseppe^sIannaccone^rND^sOrtiz-Conde^nA^rND^sGarcía Sánchez^nF.J^rND^sMalobabic^nS^rND^sGarcía Sánchez^nF.J^rND^sOrtiz-Conde^nA^rND^sMuci^nJ^rND^sJeffrey^nD. J^rND^sHare^nD. E. G^rND^sCorless^nR. M^rND^sFritsch^nF. N^rND^sShafer^nR. E^rND^sCrowley^nW. P^rND^sBarry^nD. A^rND^sBarry^nS. J^rND^sCulligan-Hensley^nP. J^rND^sBarry^nD. J^rND^sCulligen-Hensley^nP. J^rND^sBarry^nS. J^rND^nD.A^sBarry^rND^nJ.P^sBody^rND^sKalman^nD^rND^1A01^sAmigo Vásquez^nJaime R^rND^1A01^sAmigo Vásquez^nJaime R^rND^1A01^sAmigo V squez^nJaime R

Ahorro energético en viviendas de países con climas tropicales

Amigo Vásquez, Jaime R.

MSc. Jaime R. Amigo Vásquez: Profesor Titular en el Dpto. de Ingeniería Mecánica de la UNEXPO, Vicerrectorado Puerto Ordaz, Final Calle china, Villa Asia, Puerto Ordaz, Venezuela, Telefax 0286-9235831, correo electrónico jamigov@yahoo.com.

Resumen

En este trabajo se presenta un método para tomar decisiones técnicas y económicas que permitan ahorrar energía, sin pérdida del confort térmico, en viviendas ubicadas en zonas de climas tropicales. Como prototipo fue elegida una vivienda ubicada en Puerto Ordaz, Venezuela con las siguientes características: Superficie construida 180 m2. Techo de madera machihembrada y tejas. Equipo de aire acondicionado de 5 t. El diagnóstico fue realizado con un programa de simulación energética para edificios con el cual fueron determinadas las cargas de enfriamiento. Luego fueron evaluados los consumos de electricidad. Posteriormente con la ayuda del mismo programa fue definida una readecuación, que consistió en agregar al techo 140 mm de aislamiento térmico y una lámina de yeso de 12 mm de espesor. Los resultados de la simulación indican que con esta readecuación, el consumo de electricidad se reduce en 22.886,42 kW-h/año, (48,97 %), mientras que las facturas por concepto de electricidad disminuyen en 2.586.165.46,22 Bs/año. El costo de la readecuación es Bs. 11.944.260,50 de manera que la inversión inicial es recuperada en 4,62 años, siendo el período simple de retorno de la inversión menor que el tiempo de vida de la readecuación por lo que es económicamente viable.

Palabras Clave: Ahorro energético en viviendas/ Aislamiento térmico/ Clima tropical/ Enfriamiento/ Simulación energética de edificios/ Trópico/ Viviendas.

Save energy in houses of countries with tropical climates

Abstract

This paper presents a method to make technical and economic decisions that will allow to save power, without hindering thermal comfort, in houses located in areas with a tropical climate. A house from Puerto Ordaz, Venezuela, was chosen as a prototype with the following characteristics: Surface built: 180 m2. Dovetail wood roof and tile, and a 5 t air conditioning unit. The diagnose was made with a power simulation program for buildings to determine the cooling loads. Then the electricity consumption was evaluated. Later on, the same program was used to achieve a re-adaptation consisting in adding to the roof 140 mm of thermal isolation and a 12mm thick drywall plate. The results of the simulation indicate that with this re-adaptation, it is possible to reduce in 22,886.42 kW-h/year (48.97%) the electricity consumption, while the electrical bill decreased 2,586,165.46 Bs/year. The cost of the re-adaptation is of Bs 11,944,260.50, so the initial investment is recovered in 4.62 years, being the simple return period of the investment less than the lifetime of the readaptation. Therefore, the re-adaptation is economically viable.

Keywords: Cooling/ Energy Simulation in Buildings/ Houses/ Power Savings in Houses/ Thermal Isolation/ Tropical Climate/ Tropic.

Finalizado: 05/10/2004 Recibido: 01/11/2004 Aceptado: 08/02/2006

I. INTRODUCCIÓN

Tradicionalmente los diseñadores de viviendas dedicaban grandes esfuerzos para hacer las viviendas cada vez más estéticas, funcionales y que pudieran ser comercializadas a precios asequibles. Rara vez figuraba en la lista de restricciones de diseño los consumos de energía y poco énfasis se ponía en su rendimiento energético, es decir, en la forma como la energía consumida era utilizada [1]. Después de la crisis energética de los años 70, en los países desarrollados se realizaron significativas mejoras en el rendimiento energético de las viviendas construidas. En los países de climas tropicales una parte importante del consumo de energía de las viviendas es usada para enfriar sus espacios interiores [2]. En consecuencia en este renglón pueden obtenerse ahorros energéticos importantes, cuando se logra incrementar la eficiencia de la energía usada.

En Venezuela, la crisis energética de los años setenta no tuvo ningún efecto sobre los precios de la energía [3] y en el Sector de la Construcción se continuaron diseñando edificios con criterios de bajo rendimiento energético y por lo tanto, con patrones de consumo de energía altos. Los diseñadores preferían reducir los costos de construcción, especificando la parte envolvente de los edificios con materiales de bajo aislamiento térmico y tener consumos energéticos mayores, tal vez porque el consumo de electricidad era subsidiado por El Estado [4]. Esta situación cambió en forma repentina, cuando a fines de la década de los 90 fue eliminado el subsidio a la electricidad. En la actualidad los propietarios de viviendas que usan equipos de aire acondicionado, tienen que pagar facturas con montos altos por consumos de electricidad.

El propósito de este trabajo es diseñar una metodología para encontrar y evaluar oportunidades de ahorro energético que al mismo tiempo establezca el confort térmico en viviendas ubicadas en climas tropicales, construidas con la premisa que la energía era un recurso abundante y se obtenía a precios asequibles.

Para cumplir con este propósito se trabajó con el concepto de “readecuaciones” (retrofitting), es decir, modificaciones de las viviendas existentes que sin mayores cambios en su diseño conducen a reducciones del consumo energético [5]. Las valoraciones fueron realizadas con un programa para simular el comportamiento energético de edificios. De esta manera es posible proporcionar información técnica y económica a los propietarios de viviendas, con el objeto de facilitar la toma de decisiones respecto a los problemas que presentan sus viviendas, como el manejo de la energía y el confort térmico de sus dependencias.

Existen numerosos estudios dirigidos a analizar estos aspectos para viviendas ubicadas en climas fríos y algunos para climas tropicales, en ambos casos las viviendas están ubicadas en países desarrollados, donde fueron concebidos la mayoría de los programas de simulación energética de edificios. En este trabajo se examina una forma para adaptar estos programas a viviendas ubicadas en países en vías de desarrollo con climas tropicales.

En este se demuestra que realizando una inversión relativamente pequeña en las viviendas (que se paga en corto tiempo con el ahorro energético logrado), se pueden usar los equipos de aire acondicionado y obtener rebajas en los montos de las facturas por consumo de electricidad. A partir de los resultados obtenidos puede estudiarse la forma de implementar un programa de reducción del consumo de electricidad en los hogares.

El estudio fue realizado aplicando una técnica de investigación virtual. (Cuasi-experimental), que investiga posibles acciones de causa-efecto mediante la aproximación a las condiciones de un experimento verdadero en un ambiente que no permite el control o la manipulación de todas las variables importantes. La ausencia en él de un grupo de control hace que Cambell y Stanley lo consideren cuasi-experimental

Dos aspectos centrales son examinados en este artículo 1) La identificación de las variables de entrada del programa de simulación energética usado, la validación del modelo y el diagnóstico de la situación actual de una vivienda típica. 2) El proceso de búsqueda de readecuaciones que conduzcan a mejoras del rendimiento energético de la vivienda, la valoración de una de ellas y el correspondiente análisis económico.

II. DESARROLLO

1 Definiciones de algunos términos usados

Dentro de un espacio acondicionado o zona, la ganancia de calor se define como la energía que es transferida desde el exterior al espacio interior (cargas externas), o generada en el interior del edificio mismo. (Cargas internas) La ganancia de calor de una zona está influenciada fuertemente por el tiempo atmosférico, básicamente porque se crea un efecto transitorio muy fuerte por la variación horaria de la radiación solar. La carga de enfriamiento es la velocidad a la cual la energía es removida desde la zona para mantener la temperatura y la humedad a los valores de diseño.

La velocidad de extracción de calor es la rapidez a la cual la energía es removida desde el espacio por el equipo de enfriamiento y deshumidificación. Esta velocidad es igual a la carga de enfriamiento, cuando las condiciones del espacio acondicionado son constantes y el equipo está operando. Por numerosas razones, esta condición en la realidad no se presenta con frecuencia, porque durante la mayor parte del tiempo la carga de enfriamiento está por debajo de los valores de la carga de diseño.

Por edificio se entiende una serie de estructuras creados por el hombre para resguardarse de las condiciones climáticas. Con relación al cálculo de las cargas de enfriamiento, los edificios generalmente se clasifican en residenciales, cuando las cargas principales provienen de las condiciones exteriores del edificio. (Radiación solar, fugas de aire, ventilación, etc.) Las cargas internas provenientes de sus ocupantes e iluminación son pequeñas en comparación con los edificios comerciales o industriales y son habitados y acondicionados las 24 horas del día (Viviendas unifamiliares, multifamiliares, apartamentos, etc.), y no residenciales, cuando la mayoría de las componentes de la carga de enfriamiento varía dentro de un amplio rango durante las 24 horas del día. (Edificios comerciales y públicos, auditorios, pistas y estadios, hoteles, moteles y residencias, hospitales, etc.)[6]

2 El Modelo

Muchos de los componentes de la carga de enfriamiento varían en un amplio rango de magnitudes durante el día. (Radiación solar sobre las superficies exteriores, efecto de almacenamiento térmico sobre las superficies, etc.) Por esta razón, las ganancias de calor externas deben ser tratadas en forma individual y siempre como transferencias de calor no estacionarias [7]. Para formarse una idea de la naturaleza del problema, se puede considerar que el calor conducido a través de las paredes y del techo de un edificio es variable con la temperatura exterior y también con la radiación solar entrante sobre las superficies exteriores. La modelación matemática de la carga de enfriamiento, conduce a una ecuación diferencial que se conoce como la ecuación de Fourier [8]

(Ecuación II.1)

Donde:t=temperatura local en el punto de la lámina, K q= tiempo,

Una ecuación diferencial no lineal, dependiente del tiempo en las condiciones de frontera y de la superficie exterior, como es la ecuación de Fourier, es un significativo obstáculo para obtener una solución. El método del balance de calor permite la solución exacta de dicha ecuación [9], asegurando que todos los flujos de energía de cada espacio acondicionado estén balanceados e involucra la solución de un conjunto de ecuaciones de balances energéticos para el aire encerrado en el recinto y también de las superficies interiores y exteriores de cada pared, techo y piso. El método del balance de calor es impráctico cuando no se tiene la velocidad de cálculo que poseen los computadores digitales.

3 Simulación energética

Puesto que la cantidad de energía que usa un edificio está directamente relacionada con el clima, el uso dado al edificio y su forma geométrica, en la práctica sólo es posible evaluar la eficiencia energética de los edificios a través de programas de simulación. La mayoría de estos programas usan modelos determinísticos basados en la comprensión de procesos físicos que gobiernan el comportamiento del sistema y suponen que no existen influencias aleatorias. El método del balance de calor y otros métodos aproximados desarrollados, son utilizados para resolver modelos determinísticos que simulan el comportamiento energético de los edificios. En la Fig.1 se presenta el diagrama de flujo para el cálculo de un programa de simulación del tipo determinístico.

Fig.1 Diagrama de flujo de un modelo determínístico de edificio.

El programa inicia con los datos del clima, seguido de la descripción de los sistemas del edificio que será modelado. Interesa por ejemplo su geometría, ubicación geográfica, aislamiento de paredes, sistemas de enfriamiento. Las principales bondades de estos programas son sus sólidos principios de ingeniería, su amplia aceptación y el uso de códigos de simulación de uso público.

La característica más importante de estos programas de simulación es su capacidad para manejar los distintos parámetros que son cruciales para una evaluación precisa de la energía usada por los edificios. En la actualidad existen varios programas de simulación energética que trabajan con el método del balance de calor, los más conocidos son BLAST y EneryPlus [10].

4 Metodología.

El estudio fue realizado aplicando una técnica de investigación virtual (cuasi-experimental). Las razones que se tuvieron para elegir esta técnica de investigación fueron las siguientes: a) Mediante la simulación computarizada de un proceso se manipularon y controlaron las variables independientes (causas) y fueron observadas las variables dependientes (efectos) en busca de una variación. b) El muestreo no es aleatorio, las muestras son seleccionadas en forma racional y c) No hay grupos de contraste [11].

Para cubrir el alcance del trabajo se realizó una primera parte de diagnóstico, en la que el objeto del estudio fue medir el  comportamiento energético de una vivienda elegida como típica de clima tropical. Atendiendo a lo expuesto, esta etapa fue desarrollada como una investigación descriptiva, debido a que no se manipuló ninguna de las variables.

A continuación y tomando como base los resultados del diagnóstico, se desarrolló la segunda parte del trabajo que consistió en la simulación del comportamiento energético de la vivienda, para encontrar readecuaciones que permitieran su mejora energética. La simulación fue realizada usando un programa de simulación energética de edificios denominado  Right-Suite Commercial v.5.0.17 desarrollado por la Corporación Wright, que fue calibrado previamente. A manera de ejemplo fue desarrollada una readecuación, hasta obtener el monto de la inversión necesaria para su ejecución y la cantidad de dinero ahorrado en energía eléctrica. Finalmente se presenta el cálculo de su evaluación económica.

5 Calibración del modelo Los diseñadores de programas de simulación energética, en su empeño por facilitar la búsqueda de información y acortar los tiempos necesarios para ingresar los datos del programa, insertan una subrutina con una base de datos del clima. Entonces el usuario despliega un menú para seleccionar la ciudad donde está ubicado el edificio y el programa transfiere los datos de dicha ciudad hacia los archivos que se están ejecutando.

La base de datos climatológicos usada por el programa Right- Suite Commercial, es la que aparece en ASHRAE [12]. Dicha base contiene información del clima de 3.018 ciudades, la mayoría situadas en USA y otros países desarrollados. Con relación a Venezuela, sólo se incluye la cuidad de Caracas. Habiéndose elegido a Puerto Ordaz como la cuidad típica para realizar la simulación, por tener clima tropical del tipo AW’1 [13] y estar ubicada en un país en desarrollo, su omisión de la base de datos obliga a calibrar el programa para tener pronósticos confiables.

Puesto que el enfriamiento de un recinto se basa en la transferencia de calor entre la superficie exterior de un serpentín enfriado y el aire atmosférico del recinto que se va a enfriar (zona), para la calibración del programa Right-Suite Commercial se consideró apropiado analizar el proceso de enfriamiento del aire con las características de Example City (una ciudad con un clima de 4 estaciones en el año), que aparece en la base climática del programa y compararlo con el proceso de enfriamiento del aire en las condiciones tipificadas para Puerto Ordaz. La Fig. 2 muestra el esquema del serpentín de enfriamiento en contacto con el aire de la zona.

Fig. 2 Esquema de serpentín para enfriar aire húmedo.

Como el aire atmosférico es una mezcla de aire y vapor de agua, la separación del agua ocurre cuando el aire atmosférico es enfriado a una temperatura menor que el punto de rocío. Se supone que el agua condensada es enfriada hasta la temperatura de saturación t2 antes de ser drenada del sistema

Para las condiciones fronteras de la Fig. 2 las ecuaciones de conservación de la energía en flujo estacionario y de balance de materiales son respectivamente:

Mientras que la ecuación de continuidad es:

(Ecuación II.4)

En la Tabla I se muestran las condiciones climáticas mensuales de Example City y Puerto Ordaz. Para evaluar los procesos de enfriamiento de ambas ciudades, a continuación se presenta el desarrollo del cálculo correspondiente al mes de julio. Para Example City la temperatura de bulbo seco es 37,2 °C y una humedad relativa del 37 %. El aire debe ser enfriado hasta las condiciones de diseño. ( punto de saturación a 10 °C) Para facilitar los cálculos se supone que a la zona entra un flujo de 1 m3/s

Tabla I Temperatura y humedad relativa de Example City y Puerto Ordaz

La Carta micrométrica es una gráfica en la que se representan las propiedades termodinámicas del aire húmedo y puede encontrarse en textos como [14]. Cuando son conocidas dos propiedades del aire húmedo, se puede definir un punto sobre la Carta y éste representa un estado termodinámico del aire. Una vez que se define un estado, pueden identificarse los valores de todas las otras propiedades. (Véase la Fig. 3)

Fig. 3 Esquema que muestra la forma de trabajar con la Carta sicrométrica.

El estado termodinámico 1 corresponde al aire atmosférico de Example City y se ubica en el punto formado por la intersección de t1 = 37,2 °C y humedad relativa de 37 %. Desde dicho punto se obtiene h1 = 79 kJ/kg (aire seco), W1 = 16,0 g ( kg de agua/kg de aire seco) y 0,9 m3 de aire húmedo/ kg de aire seco. El estado 2 que corresponde en las condiciones de diseño del recinto a enfriar, está ubicado sobre la curva de saturación a 10 °C. Luego h2 = 30 kJ/kg (aire seco) y W2 = 7,6 g ( kg de agua/kg de aire seco).

De la Fig. 3 se obtienen los valores del volumen específico y las entalpías

El valor de la masa de agua condensada se determina por: (g. de agua/kg de aire seco)

(Ecuación II-5)

Por otra parte, corresponde a la entalpía del agua que se condensa en las condiciones establecidas en el punto 2, cuyo valor se determina por medio de las Tablas de vapor [15]

Despejando de la Ecuación 4.1 y reemplazando se tiene:

1q2 = 53,997 kW

Para Puerto Ordaz, la temperatura de bulbo seco es 26,9°C y la humedad relativa es 80%. En la Carta sicrométrica el proceso es representado por la línea de trazos que va desde 1’ a 2. En este caso las condiciones del aire atmosférico se designan con 1’; el punto 2 es igual en ambos procesos por cuanto se refiere a las condiciones de diseño de la zona. Del diagrama sicrométrico fueron obtenidos los siguientes valores:

Por lo tanto:

La comparación realizada entre los procesos de enfriamiento permite concluir que a pesar de ser diferentes las condiciones del aire atmosférico para ambas ciudades, la potencia requerida para enfriar el aire de Example City es 4,10 % mayor que en el caso de Puerto Ordaz. Al escribir la Ecuación 4.1 en la forma: 1q2 = ma (h1 - h2) - mwhw2, se observa que la entalpía del aire a la entrada del sistema h1 tiene un valor predominante en el cálculo de la potencia, porque los otros términos son función de las condiciones de diseño de la zona, que son los mismos para ambas ciudades. Teniendo presente lo anterior, se puede concluir que la carga térmica de un edificio, está influenciada en gran forma por los valores de la entalpía del aire atmosférico del lugar.

Siguiendo el razonamiento señalado, fueron calculadas las entalpías del aire atmosférico mes a mes para ambas ciudades. En la Fig. 4 se puede constatar que durante los meses de junio, julio y agosto las entalpías del aire de ambas ciudades son más parecidas que para el resto del año. En consecuencia y para efectos de una pre-calibración del modelo, se tomó la decisión de considerar sólo el intervalo que va de junio a agosto, como meses confiables para realizar predicciones con el clima de Puerto Ordaz. Los pronósticos anuales serán realizados extrapolando a todo el año los valores obtenidos en ese intervalo.

Fig. 4 Comparación de las entalpías del aire atmosférico de Puerto Ordaz y Example City.

El clima de Puerto Ordaz se caracteriza por ser isoentálpico, debido a que durante todo el año, presenta temperaturas y humedades relativas altas, En el caso de Example City, que tiene un clima con 4 estaciones en el año, sólo en los meses del verano los valores de entalpía del aire son similares a los de Puerto Ordaz.

6 El diagnóstico

Fue realizado con el programa pre-calibrado en la forma descrita. Como prototipo fue elegida una vivienda de una planta ubicada en Puerto Ordaz, Venezuela con las siguientes características: Vivienda bifamiliar de una planta, construida en el año 1976. Los datos que se indican a continuación corresponden al espacio que ocupa una familia y que para fines de este trabajo, será designado simplemente como vivienda:

Superficie construida 180 m2. (L =17,1; A = 8,0 m) Techo de tejas de greda con pendiente a dos aguas.

Superficie de la zona con aire acondicionado 136,8 m2.

Orientación de la fachada mayor en la dirección NE, superficie total de esa fachada 56,43m2. La pared común que separa los 2 viviendas está orientada en la dirección SO y también tiene 56,43m2. El grupo familiar fue estimado en 8 personas y las actividades que desarrollan en su interior son del tipo moderado. La potencia instalada para iluminación es 900W. En la zona con aire acondicionado no hay motores ni artefactos eléctricos, sólo un equipo de TV. El equipo de aire acondicionado tiene una capacidad de 5 t. En la Tabla II se muestran las especificaciones técnicas más importantes de la vivienda.

Tabla II. Especificaciones técnicas de la vivienda típica

Para facilitar la entrada de datos (descripción del edificio: orientación, dimensiones y detalles de construcción, además de todo lo relacionado con el aire acondicionado), el programa Right-Suite Commercial posee un sistema de menús para su elección. El programa obtiene los valores referentes a ganancias internas de calor (nivel de ocupación, iluminación, etc.) a través de horarios en los que son especificadas las fracciones de los valores de diseño usados cada hora por el componente asociado.

El programa posee gran flexibilidad para emitir reportes con las evaluaciones de las cargas térmicas, bien sea en forma global, por zonas, en forma horaria o desagregada por superficies de transferencia (techo, ventanas, pisos, etc.), siempre indicando el día y la hora en que ocurre la carga máxima. De los múltiples reportes de salidas, en este trabajo fueron utilizados los referentes a cargas térmicas de enfriamiento.

Usando uno de los reportes del programa fue elaborada la Tabla III. En ella se presenta el perfil horario de la carga de enfriamiento para la vivienda, durante los meses de junio, julio y agosto. Cabe destacar que la carga máxima de enfriamiento es de 22,33 kW y ocurre en el mes de julio a las 1800 horas. Como las cargas horarias corresponden a la potencia requerida para el enfriamiento de la vivienda (kW), al multiplicar dicha carga por 1 hora se tiene la de demanda de energía necesaria para enfriar la vivienda durante 1 hora. (kW-h) En consecuencia las sumas de las columnas de la Tabla corresponden a la demanda diaria de enfriamiento (kW-h /día) para cada uno de los meses. En la parte inferior izquierda de la tabla se presenta el valor promedio de la demanda de enfriamiento para el período considerado y es de 491,51 kWh por día. Considerando que el año tiene 365 días, se tiene una demanda de enfriamiento anual de 179.401,15 kW-h.

Tabla III. Cargas sensibles de vivienda sin modificar (kW)

El comportamiento de un equipo de aire acondicionado puede ser expresado como la razón que existe entre la energía que sale y el trabajo que entra. El trabajo que entra es el consumido por el compresor. (Cantidad de energía que se paga a las empresas distribuidoras de electricidad). Esta razón es llamada coeficiente de operaciones (COP) de un equipo de enfriamiento [16].

COP = Calor removido ( kW-h)/ Consumo de electricidad (kWh)

(Ecuación II-6)

En consecuencia, conociendo el valor del coeficiente de operaciones puede determinarse el consumo de electricidad del equipo. De la documentación entregada por el fabricante del equipo se obtuvo un valor de 4 para el COP que está dentro del rango que tienen los equipos fabricados en la década de los 70. Haciendo los reemplazos se obtiene un consumo anual de electricidad de 44.850,29 kW-h/año.

7 Comparación con la energía eléctrica medida.

Para tener mayor certeza que los pronósticos realizados con el programa de simulación son apropiados, los valores obtenidos fueron comparados con los obtenidos en forma experimental, mediante un medidor portátil de consumo eléctrico, marca Amprobe, modelo LAW-78KWH-12, en las siguientes condiciones:

a.Equipo de aire acondicionado operando en forma continua:

Se colocó el termostato en 12 °C, de manera que el equipo no fuera capaz de remover la carga de enfriamiento establecida. La prueba duró 24 horas y se determinó un consumo promedio de 6,4 kW-h por hora, lo cual implica un consumo máximo de 56.064 kW-h/año, valor superior al pronosticado por el programa. (44.850,29 kW-h/año) Este valor se considera satisfactorio porque presume que el equipo opera sin detenerse en todo el año, situación que no es cierta.

b.Equipo de aire acondicionado operando en forma intermitente:

Se colocó el termostato en 24 °C. Fueron realizadas 3 mediciones con una duración de 24 horas cada una. Las pruebas fueron realizadas los días 29 de junio, 25 de julio y 27 de agosto de 2004. Atendiendo a la clasificación que aparece en el Medidor de carga del programa de simulación, los resultados fueron agrupados según la ocurrencia de las cargas de enfriamiento en: baja, mediana y alta En la Tabla IV se muestran los valores promedios de las lecturas obtenidas. Como resultado de estas pruebas experimentales se estima que el consumo eléctrico anual es 43.318,20 kWh/año, que es ligeramente inferior (3,42%) al consumo pronosticado por el modelo.

Tabla IV. Consumos de electricidad obtenidos con medidor de potencia portátil marca Amprobe, modelo LAW-78KWH- 12,

(1) Valores promedio

Valores promedios

Teniendo en cuenta lo expuesto y considerando que el clima de Puerto Ordaz es isoentálpico a lo largo del año, con valores de humedad relativa altos, una temperatura media anual de 27,5 °C y un rango de variación de 5 °C, se considera que la calibración del modelo es adecuada para simular el comportamiento energético de la vivienda típica.

La Gaceta Oficial de la República Bolivariana de Venezuela N° 37415 de fecha 03 de abril de 2002, fija en 113,00 Bs/kW-h la tarifa para consumo residencial. Como para la vivienda típica fue pronosticado un consumo de energía de 44.850,29 kWh/ año, los montos facturados por electricidad ascenderán a 5.068.082,77 Bs/año ó 2.357,25 US$/año. Si se considera la tasa de cambio vigente de 2.150 Bs./US$.

8 Búsqueda de readecuaciones.

Con el objeto de visualizar la ponderación que tiene cada uno de los componentes del edificio en la carga de enfriamiento máxima (22,33 kW), en la Fig. 5 se muestra dicha carga desagregada. Es interesante hacer notar que el flujo de calor descendente que entra a los espacios acondicionados a través del techo produce el 51% de carga la carga máxima de enfriamiento. Al ser esta carga preponderante sobre las otras, la implementación de una readecuación en el techo ofrece mayores oportunidades de ahorro energético..

Fig.5. Desglose en forma porcentual de la carga de enfriamiento máxima de la vivienda típica sin modificar. Esta carga tiene un valor de 22,33 kW y ocurre a las 18 horas del mes de julio. Es importante destacar que casi la mitad de dicha carga, se produce a través del techo.

9 Definición y desarrollo de una readecuación

Con el objeto de presentar el método de análisis y valoración de las readecuaciones, a continuación se presenta el desarrollo de una de ellas, denominada “Readecuación del techo: 140 mm”, que se muestra en la Fig. 6. La readecuación consiste en rellenar con aislante térmico el espacio que queda entre la madera machihembrada existente y la lámina de yeso que se va a instalar. Como material aislante se usó lana mineral en forma de rollos, con un espesor de 140 mm que cumple entre otros con los siguientes requerimientos: Resistencia térmica elevada, expectativa de vida semejante a la vivienda (25 años), costos de instalación y mantenimiento relativamente bajos, emisiones de contaminantes bajas.

Fig. 6 Esquema de la Readecuación propuesta para el techo. Inicialmente la cubierta del techo estaba formada por las tejas, el manto asfáltico y la madera machihembrada. Con la “Readecuación del techo: 140 mm” , se disminuye el coeficiente global de transferencia de calor “U”desde 3,30 a 0,27 W(m2 °C)-1 y por lo tanto hay una disminución de la carga de enfriamiento.

La simulación consistió en mantener constantes las variables de entrada, tal como fueron introducidas en el diagnóstico, con excepción de aquellas inherentes al techo, que fueron modificadas para reflejar su nueva configuración. Una vez concluido el proceso de simulación de la Readecuación del techo: 140 mm, se obtuvo una Tabla similar a la Tabla III con el nuevo perfil de carga diaria, en la que la carga máxima de enfriamiento también ocurre en el mes de julio a las 18:00 horas y su valor es 11,80 kW. La demanda promedio de la carga de enfriamiento resultó de 240,70 kWh/ día, lo que implica una demanda anual de enfriamiento de 87.855,50 kW-h. Todos estos valores son menores que los obtenidos en la etapa de diagnóstico. En cuanto a los valores de los consumos eléctricos, también fueron establecidos usando los criterios de la etapa de diagnóstico. En este caso se obtuvo un consumo de 21.963,87 k, lo que representa un pago por facturas de electricidad de 2.481.917,31 Bs/año o 1.154,38 US$/año.

El ahorro energético que se obtiene implementando la “Readecuación del techo: 140 mm” viene dado por ( 44.850,29 - 21.963,87) es decir 22.886,42 kW-h/año. Mientras que el ahorro monetario es (5.068.082,77 – 2.481.917,31), es decir 2.586.165,46 Bs/año. En ambos casos el ahorro llega al 48,97 %.

10 Costos asociados a la readecuación

Los costos de los materiales que se requieren para efectuar la Readecuación del techo: 140 mm, fueron obtenidos de proveedores locales y los salarios fueron sacados del Contrato Colectivo de la Construcción del Estado Bolívar. Para hacer este análisis más universal y perdurable en el tiempo, ambos costos son presentados en dólares americanos. La Tabla V muestra que la “Readecuación del techo: 140 mm” tiene un costo total de US$ 5.555,47 ó Bs. 11.944.260,50. El tiempo de ejecución de las obras es de 8 días hábiles.

(1) Tipo de cambio considerado 1 US$ = 2.150 Bs.

Tabla V Costos asociados a la "Readecuación del techo: 140 mm"

11 Análisis Económico de la Readecuación

El método del período de retorno de la inversión es usado para evaluar readecuaciones cuando los recursos son limitados y es importante conocer con qué rapidez será recuperada la inversión. El período de retorno es calculado simplemente como

12 .- Discusión de resultados

Se adquirió destreza para manejar un programa de simulación energética de edificios.

La simulación demostró ser un método eficaz para buscar readecuaciones de viviendas, que permitan mejorar su eficiencia energética y obtener importantes ahorros energéticos.

A través de la simulación es posible determinar otras readecuaciones que permitirán formar una cartera de proyectos, en la que todos los proyectos tendrán por objetivo mejorar la eficiencia energética de la vivienda.

III CONCLUSIONES.

1. Los programas de simulación energética de edificios, pueden usarse para hacer predicciones en viviendas ubicadas en ciudades con climas tropicales.

2. Aun cuando las ciudades con climas tropicales no aparezcan en la base de datos climatológicos, los programas de simulación energéticas pueden ser calibrados por un método experimental.

3. El costo de la readecuación es de US$ 5.555,47, el tiempo de ejecución es 8 días hábiles y la inversión se paga en 4,62 años.

4. La reducción del consumo de electricidad de 22.880,94 kWh por año estará disponible para otros usos.

5. Siendo el período simple de retorno menor que el tiempo de vida de la readecuación, la “Readecuación del techo: 140 mm” es económicamente viable.

6. Los materiales utilizados en la readecuación se pueden obtener de proveedores locales.

IV. REFERENCIAS

1. Steadman, P. “Energía, medio ambiente y edificaciones”, Madrid. Blume Ediciones, 1980, p.16.        [ Links ]

2. Thumann, A. “Handbook of energy audits” 5th Edition, Lilburn GA, The Fairmont Press Inc. 1998, pp. 7 a 115.        [ Links ]

3. MARNR. “Balance ambiental de Venezuela”. Caracas, Centro de Información y Estadísticas Ambiéntales de la Dirección Sectorial de Información Ambiental. 1995, pp. 145 y 146.        [ Links ]

4. González, R. de Pacheco. “El subsidio a la electricidad y sus efectos distributivos, en gasto público y distribución del ingreso en Venezuela”. Caracas, Ediciones IESA. p. 31.        [ Links ]

5. Meckler, M. ”Retrofitting of building for energy conservation”. 2nd. Edition, Lilburn GA, The Fairmont Press Inc. 2000, pp. 3 y 4.        [ Links ]

6. ASHRAE. “HVAC Applications”. I-P Edition, Atlanta, GA. American Society of Heating, Refrigerating and Air- Conditioning Engineers, Inc. 1999, pp.1.1 y 7.13.        [ Links ]

7. Mull,T. “HVAC principles and applications manual”, New York, McGraw-Hill, 1998, p. 7.2.        [ Links ]

8. Levermore, G. “Building energy management systems”, 2nd Edition, London, E&FN Spon, 2000, pp. 199 a 201.        [ Links ]

9. ASHRAE “Fundamental.” SI Edition, Atlanta, American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc., 1997, pp. 30.3 a 30.8.        [ Links ]

10. Amigo, J. “Software de computación para auditorias energéticas” Ponencia en Convención anual de AsoVAC. Capítulo Táchira. [Resumen]. En Acta científica de Venezuela, Volumen 52. Suplemento N° 3-2001.p.349.        [ Links ]

11. Rojas, R. de Narváez. “Orientaciones prácticas para la elaboración de informes de investigación”. Puerto Ordaz. UNEXPO, p.16.        [ Links ]

12. ASHRAE. “Fundamental”. SI Edition, Atlanta, American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc., 1997, Tablas: 1B, 2B y 3B, pp. 26.7 a 26.53.        [ Links ]

13. MARNR. “Atlas de la vegetación de Venezuela”. Dirección general de información e investigación del ambiente. 1985, p.19.        [ Links ]

14. Haines, R. y Wilson, L. “HVAC systems design handbook.” 3a. Ed., New York, McGraw-Hill, 1998, p.482        [ Links ]

15. Keenan, J., Keyes, F., Hill y Moore, J. “Steam tables”. (SI units), New York. John Wiley & Sons. 1978.        [ Links ]

16. McQuiston, F., Parker, J. y Spitler, J. ”Heating, ventilating, and air conditioning analysis and design”. 5a Ed. Philadelphia, John Wiley & Sons, Inc. 2000, p. 574.        [ Links ]^rND^sAmigo^nJ^rND^sAmigo^nJ^rED^nFederico^sGenolet^rED^nFederico^sGenolet^rED^nFederico^sGenolet

EDITORIAL

Nuestros primeros diez años

Resulta difícil  resumir una cuartilla diez años de la presencia de nuestra revista, UCT, en el ámbito de las publicaciones académicas en Ciencia y Tecnología.

Sin embargo, haciendo una estricta sinopsis podríamos decir que en estos diez años ininterrumpidos hemos publicado ciento noventa y un artículos arbitrados, así como cuarenta y nueve Notas Técnicas, procedentes de universidades de reconocido prestigio, de centros de investigación, de institutos universitarios, de instituciones hospitalarias, en especialidades tan diversas como Metalúrgica, Mecánica, Industrial, Eléctrica, Electrónica, Bioingeniería, Ambiente, Ciencia de la Ingeniería, Mecatronica, Telecomunicaciones, Rural, Ferroviaria, Energética e Hidráulica y áreas conexas.

Estos diez años nos han servido también para calibrar la calidad de nuestros colaboradores, aquellos que durante tanto tiempo han sido nuestros fervientes seguidores y aun continúan sometiendo a nuestra consideración, a veces implacablemente exigente, del cumplimiento de nuestras Normas de Publicación.

no podríamos dejar de considerar en estos diez años la perseverancia de nuestros árbitros, quienes con su pericia y conocimientos han puesto lo mejor de si para orientar punto de vista y decidir diferencias científicas conceptuales .

Estos diez años han servido también para redefinir donde orientar la indización de nuestros artículos. Actualmente UCT esta indizada en los siguientes índices internacionales: Actualidad Iberoamericana, Aluminium Industry abstracts, Corrosion abstracts, CSA Engineering Research Database, CSA Materials Research Database with METADEX, CSA Recent References Related to Technology, CSA Technology Research Database, Enviroment Abstracts, LATINDEX, Mechanical & Transportation Enginering Abstracts, REVENCYT, estando registrada además en el Ulrich´s International Periodicals Directoy.

No podríamos dejar de considerar, sin lugar a dudas, a los representantes de instituciones que como FONACIT, FUDACITE Guayana y la misma UNEXPO, han depositado su confianza en promocionar y sostener económicamente en estos diez años la aparición regular de la revista.

A todos nuestros amigos Árbitros Colaboradores ,patrocinadores, deseamos agradecer su interés en querer lograr la calidad académica que nuestra revista y nuestra universidad merecen.

DR. Federico Genolet

Editor UCT

^rND^1A01^sReyes Gil^nRosa^rND^1A02^sBermúdez^nAlexis^rND^1A03^sDe Abreu^nOrlando^rND^1A04^sAlvarado^nJosé^rND^1A05^sDominguez^nJosé^rND^1A01^sReyes Gil^nRosa^rND^1A02^sBermúdez^nAlexis^rND^1A03^sDe Abreu^nOrlando^rND^1A04^sAlvarado^nJosé^rND^1A05^sDominguez^nJosé^rND^1A01^sReyes Gil^nRosa^rND^1A02^sBerm£dez^nAlexis^rND^1A03^sDe Abreu^nOrlando^rND^1A04^sAlvarado^nJos‚^rND^1A05^sDominguez^nJos‚

Metales pesados en plantas provenientes de áreas afectadas por la minería aurífera en la reserva forestal Imataca, Venezuela

Reyes Gil, Rosa Bermúdez, Alexis De Abreu, Orlando, Alvarado, José Dominguez, José

Resumen: La Reserva Forestal Imataca ha sido explotada artesanalmente para la extracción de oro de aluvión con la utilización de técnicas agresivas para el ambiente, que incluyen la deforestación de grandes áreas boscosas y el uso de mercurio. El objetivo de este trabajo fue determinar la contaminación por metales pesados en plantas provenientes de esta reserva con el fin de evaluar su potencial para labores de restauración. Se presentan los valores de mercurio, cadmio y plomo encontrados en hojas de plantas extraídas de áreas de minería aurífera abandonadas que se encuentran en diferentes estadios sucesionales del bosque tropical que ocupa la reserva. El contenido de metales fue determinado por espectrofotometría de absorción atómica, el mercurio con la técnica de vapor frío y los contenidos de plomo y cadmio mediante atomización a la llama. La concentración de estos últimos no superó el valor del límite de detección del equipo. La concentración de mercurio en las hojas de las plantas colectadas se encontró entre los 148,0 y 329,0 ppb. Los resultados indican que las mejores especies para la reforestación que iniciarían el proceso sucesional, podrían ser las cyperaceas y gramíneas que además son de fácil localización y práctico manejo.

Palabras clave: Deforestación/ Imataca/ Mercurio/ Reforestación/ Reserva Forestal.

HEAVY METALS IN PLANTS OF GOLD MINING AREAS IN FOREST RESERVE IMATACA, VENEZUELA  

Abstract: The Forest Reserve Imataca has been used for gold extraction with aggressive techniques for the environment as deforestation and mercury use. This worh presents the levels of mercury, cadmium and lead in leaves plants of this reserve, in areas with differents succesional stages, for to evaluate its potential for workings of restauration. The metal content was determined by atomic absorption spectrophotometry, mercury with cold steam technique and lead and cadmium by flame atomization. Lead and cadmium leves are down of equipment detection. Mercury levels in the leaves are between 148.0 and 329.0 ppb. The results indicate that the best species for reforestation could be the cyperaceae and gramineae for there down leves of mercury anf easy location and handling.  

Key words: Deforestation/ Forest Reserve/ Mercury/ Imataca/ Reforestation.  

La Dra. Rosa Reyes Gil es Profesora Titular en el Dpto. de Biología de Organismos de la Universidad Simón Bolívar, Apdo. Postal 89000, Caracas, Venezuela, correo electrónico rereyes@usb.ve. El MSc. Alexis Bermúdez es Profesor Asociado en el Dpto. de Biología y Química de la Universidad de Los Andes, Núcleo Universitario Rafael Rangel, Trujillo, Edo. Trujillo, Venezuela, correo electrónico adjbermudez@cantv.net. El Lic. Orlando de Abreu desempeña sus actividades en el Dpto. de Química de la Universidad Simón Bolívar. El Dr. José Alvarado es Profesor Titular en el Dpto. de Química de la Universidad Simón Bolívar, correo electrónico jalvar@usb.ve. El Lic. José Domínguez es Investigador en Química Analítica, Universidad Simón Bolívar, correo electrónico jrdomin@usb.ve.

Manuscrito finalizado en Caracas el 2006/05/16, recibido el 2006/06/19, en su forma final (aceptado) el 2006/08/04.

1. INTRODUCCIÓN

La Reserva Forestal Imataca se encuentra ubicada en los Estados Bolívar y Delta Amacuro, al sureste de Venezuela. Se caracteriza por ser un bosque tropical de sabana de vital importancia para la salud global del planeta por albergar una gran diversidad de especies. Además, durante las actividades de reforestación, los bosques generan una alta concentración de oxígeno y representan un importante reservorio de dióxido de carbono para el planeta aliviando el sobrecalentamiento global.

En el año 1997 se decretó el Plan de Ordenamiento y Reglamento de Uso de la Reserva Forestal Imataca, Estado Bolívar y Delta Amacuro (Decreto No. 1850, Gaceta Oficial No. 36.215) que contempla la unidad denominada Zona de Manejo Mixto (ZMM). En esta unidad, los usos permitidos, a saber, Forestal y Minero, se encuentran en conflicto. En efecto, históricamente la Reserva Forestal Imataca ha sido explotada artesanalmente para la extracción de oro de aluvión con la utilización de técnicas altamente agresiva para el ambiente.

La minería de oro artesanal utiliza un proceso simple de extracción del metal desde minas primarias o secundarias que poseen partículas de oro muy finas. Específicamente en Brasil, Venezuela, Colombia, Bolivia, Guyana Francesa, Ecuador y Perú, este proceso incluye la amalgamación del oro fino con mercurio, con la finalidad de separarlo del sedimento [1].

Es ampliamente reseñado en la bibliografía que la extracción de oro de aluvión trae consigo una alta tasa de deforestación, asociada con incremento en el fenómeno de la erosión, desaparición de habitats para las especies vegetales y animales allí presentes y la utilización del mercurio como elemento amalgamador del metal [2]. El mercurio, aunque muy útil por sus propiedades físicas y químicas, es muy tóxico para todos los seres vivos, incluyendo al hombre, ya que afecta al sistema nervioso central y a los órganos depuradores [3, 4,5].

Esta situación es particularmente grave si se considera, por una parte, la desaparición progresiva de áreas boscosas en el planeta y por otra, los efectos del mercurio en la salud de los mineros artesanales y otros habitantes de la zona minera. En este sentido, es necesario conocer el potencial florístico de las áreas boscosas de la Reserva Forestal Imataca de manera de conocer las especies vegetales presentes y analizar su idoneidad con el fin de proponer algunas acciones que conduzcan a la restauración de las áreas mineras. Además, para proponer un efectivo plan de reforestación, es necesario conocer el contenido de metales pesados presentes en las plantas que serán utilizadas, con el fin de evitar el paso de estos contaminantes a través de la cadena alimenticia, los ecosistemas y, eventualmente, hasta el ser humano como uno de los consumidores finales. En este trabajo se analiza la composición florística de la zona de estudio y las concentraciones de plomo, cadmio y mercurio en las plantas seleccionadas, con el fin de seleccionar aquellas con menor contenido de estos metales para asegurar así, su idoneidad para reforestar las áreas desvastadas por la minería aurífera. En tal sentido, los criterios utilizados para la selección de las plantas propuestas para la reforestación fueron: 1) la presencia de las plantas en el bosque natural y, 2) el que presenten bajos niveles de los metales analizados a fin de asegurar que no tenga lugar la bio-disponibilidad y bio-transferencia de los mismos en las cadenas tróficas.

A continuación se describirán los materiales y métodos empleados para tratar de esclarecer los objetivos planteados en la investigación, los resultados y su discusión, así como algunas conclusiones y recomendaciones que se desprenden de los resultados obtenidos. Finalmente, se presentan las referencias bibliográficas consultadas para la realización del presente trabajo.

II. DESARROLLO

1. Materiales y métodos

Área de estudio y material vegetal. Fueron colectadas varias especies de plantas presentes dentro de la concesión minera a cargo de una empresa canadiense ubicada en el sector de Las Cristinas, en la Reserva Forestal Imataca. En función de los diferentes estadios sucesionales presentes en el área descrita, fueron seleccionadas tres zonas de muestreo, a saber:

I. Zona Intervenida, recientemente abandonada que representaría un estadio de sucesión inicial o Estadio 1;

II. Zona intervenida completamente abandonada, donde se había establecido un estado intermedio de sucesión o estadio 2; y

III. Zona no intervenida, representando el estadio clímax del bosque o estadio 3.Se colectaron dos ejemplares de cada planta, uno de ellos fue preservado para su identificación taxonómica y el otro fue dispuesto en bolsas plásticas y transportadas en frío hasta el laboratorio de Espectroscopía Atómica de la Universidad Simón Bolívar, donde fueron dispuestas para la determinación de los metales pesados mercurio, plomo y cadmio. Análisis de metales pesados. Se determinaron los valores de mercurio, cadmio y plomo en las hojas de las plantas colectadas. Se pesaron 0,500 g de hojas trituradas y se sometieron a una digestión ácida asistida por un horno de microondas doméstico modificado. Se utilizaron las condiciones óptimas para la mayor extracción de los metales: 10 ml de una solución ácida (7ml HNO3:3 ml H2O), durante un tiempo de 30 minutos. Todas las muestras se analizaron por triplicado.

Las concentraciones de plomo y cadmio en los digeridos de cada muestra fueron determinadas por la técnica de espectrofotometría de absorción atómica con atomización a la llama [6]. Para ello se utilizó un Espectrofotómetro de Absorción Atómica marca Perkin-Elmer, modelo 2380 y se emplearon lámparas de cátodo hueco para cada elemento metálico (Pb y Cd), con líneas de 283,3 y 228,8 nm, respectivamente, con llama de aire-acetileno y apertura del fotomultiplicador de 0,7 nm (7). Los límites de detección (ld) calculados para un estándar acuoso, de baja concentración de plomo y cadmio, fueron 0,03 y 0,001 mg/l, respectivamente. El porcentaje de agua en las hojas analizadas se calculó en un valor promedio del 76%.

La concentración de mercurio en los digeridos de cada muestra fue determinada por espectrofotometría de absorción atómica con la técnica de vapor frío. En esta técnica, el mercurio soluble presente en los digeridos es transformado en mercurio vapor que es arrastrado por una corriente de nitrógeno hasta una celda de cuarzo, donde es atravesada por un haz de luz proveniente de la lámpara de cátodo hueco de mercurio que produce las líneas a las cuales absorben los átomos de este analito. La línea empleada es de 253,6 nm que se fija en el selector de líneas del espectrofotómetro con una apertura del fotomultiplicador de 0,7 nm (8). El límite de detección de la técnica empleada fue de 0,001 microgramos/l (ppb).

2. Resultados y discusión

Los organismos autótrofos constituyen el primer eslabón de las cadenas alimenticias y por ende de ellos dependen todos los animales que directamente o indirectamente los consumen. Los metales pesados son capaces de acumularse en los organismos vivos, incluyendo los autótrofos, transferirse a lo largo de la cadena trófica vía ingesta y bioamplificar sus concentraciones de un nivel trófico al siguiente [9, 10].

Las plantas analizadas en este trabajo y los niveles de mercurio encontrados en sus hojas se muestran en la Tabla I. La descripción florística de las zonas estudiadas indica que la zona I, recientemente abandonada, muestra una variedad de especies pioneras (Cyperáceas y gramíneas), características del inicio sucesional en cualquier ecosistema. En la zona II, abandonada varios meses después de la actividad minera, se observan especies intermedias (solanáceas, gramíneas, piperáceas) que podrían corresponder a un estado sucesional 2. Por el contrario, en la zona III, no intervenida, se observa mayoritariamente la presencia de especies arbóreas de gran tamaño (cecropiáceas, myrtáceas y caelsalpináceas), propias del bosque tropical. De acuerdo con esta información, quizás las mejores especies para la reforestación que iniciarían el proceso sucesional, podrían ser las cyperáceas y gramíneas que además son de fácil localización y práctico manejo.

TABLA I. CONCENTRACIÓN DE MERCURIO EN HOJAS DE PLANTAS COLECTADAS EN TRES ZONAS DE LA RESERVA FORESTAL IMATACA, ESTADO BOLÍVAR, VENEZUELA.

La técnica utilizada fue espectrofotometría de absorción atómica en vapor frío y los análisis fueron realizados por triplicado (1 microgramo / kg = 1 ppb)

Otro factor a considerar para las labores de reforestación son las cantidades de mercurio y otros metales pesados que estas plantas son capaces de acumular en sus hojas, ya sea desde el suelo o desde el aire, y la posibilidad de que estos elementos puedan ser transferidos y amplificados a los largo de las cadenas tróficas (11, 12). No se han descrito funciones biológicas específicas para los metales pesados analizados en este estudio. Por esta razón no se espera la detección de estos elementos en las plantas estudiadas. Tales fueron los resultados obtenidos en la determinación analítica de plomo y cadmio.

En efecto, los niveles de plomo y cadmio obtenidos se encuentran por debajo de los límites de detección calculados 262 para el método utilizado. La imposibilidad de cuantificar exactamente los contenidos de plomo y cadmio en las muestras analizadas es una consecuencia de la baja capacidad de detección que posee la absorción atómica a la llama para estos dos elementos.

Sin embargo, conocer con exactitud tales niveles de concentración no aportaría mayor valor al presente estudio, ya que para los objetivos planteados son suficientes los resultados obtenidos mediante atomización a la llama. Al demostrar que los niveles de Pb y Cd en muestras de hojas de la Reserva Forestal de Imataca están por debajo de 0,03 y 0,001 mg/l, respectivamente, se indica que no hay contaminación apreciable en esa área debido a estos dos metales. En efecto, se reseña que el nivel natural en plantas es inferior a 5 mg/l para el plomo y 0,01 mg/l para el cadmio, valores evidentemente superiores a los determinados en este trabajo (13).

Los niveles de mercurio obtenidos en las hojas de las plantas analizadas se encuentran en cantidades muy bajas (148,0 – 329,0 ppb), en el rango de miligramos de mercurio por kilogramo de material vegetal. Los valores de mercurio más altos fueron registrados en plantas provenientes de la zona I, recién abandonada, probablemente como consecuencia de la utilización reciente de mercurio para la amalgamación del oro. En la zona II se encuentran valores intermedios, revelando que tal vez se esté dando un proceso de depuración o expulsión del metal desde las plantas. Los valores más bajos se encuentran en la zona no intervenida (III), donde no ha tenido lugar la explotación del oro. Los valores presentes en las plantas quizá provengan del mercurio presente en el aire como consecuencia de la volatilización del mercurio a altas temperaturas desde la amalgama realizada por los mineros para la obtención del oro [2].

IV. CONCLUSIONES

1. Los niveles de plomo y cadmio obtenidos se encuentran por debajo de los límites de detección calculados para el método utilizado.

2. Los niveles de mercurio obtenidos en las hojas de las plantas analizadas se encuentran en cantidades muy bajas (148,0 – 329,0 ppb).

3. Las mejores especies para la reforestación que iniciarían el proceso sucesional, podrían ser las cyperáceas y gramíneas que además son de fácil localización y practico manejo.

4. Las plantas pertenecientes al grupo de las cyperáceas y cecropáceas analizadas en este trabajo presentan los menores valores de mercurio, razón por la cual podrían ser utilizadas para repoblar las zonas desvastadas por la minería aurífera.

IV. REFERENCIAS  

1) Malm, O. Mercury Pollution Due the Gold Mining in the Madeira Rivar Basin, Brazil. Ambio , Vol.19, No.1.1990 Pp 11-15.         [ Links ]

2) Reyes, R. et al. La educación ambiental para la pequeña minería aurífera en la Reserva Forestal Imataca, Estado Bolívar, Venezuela. Universidad, Ciencia y Tecnología, Vol.7, No.28. diciembre, 2003, pp 262-266.         [ Links ]

3) Organización Mundial de la Salud (OMS) Criterios de salud ambiental. I: Mercurio. Publicación Científica No. 362. Washington, USA. 1978, 179 pp.         [ Links ]

4) Morales, I. y Reyes, R. Mercurio y Salud en Odontología. Revista de Saúde Pública, Vol.37, No.2. 2003, pp 263-265.         [ Links ]

5) Morales, I. et al. Diagnóstico de la contaminación por mercurio en el personal de una Unidad Odontológica de Caracas, Venezuela. Acta Odontológica Venezolana, Vol.45, No.3. 2007, en prensa.         [ Links ]

6) Analytical Methods for Atomic Absorption Spectrophotometry. New York, Perkin-Elmer Manual. 1982, 58 pp.         [ Links ]

7) Skoog, D. y Larry, J. Análisis Instrumental. Barcelona, España. McGraw Hill, 1994, 342 pp.          [ Links ]

8) Stockwell, P. Y Corns, W. The Role of Atomic Fluorescente Spectroscopy. Analyst, Vol.123, No.1. 1998, pp 135-139.          [ Links ]

9) Capó, M. Principios de Ecotoxicología. Madrid, McGraw Hill/Interamericana de España S.A. 2002, 314 pp.         [ Links ]

10) De Azevedo, F. y Da Mata, A. As bases toxicológicas da Ecotoxicologia. São Paulo, RiMa Editores. 2003, 340 pp.         [ Links ]

11) De Azevedo, F. Toxicologia do Mercúrio. São Paulo, RiMa Editora., 2003, 292 pp.         [ Links ]

12) Moreno, D. Toxicología Ambiental. Evaluación de riesgo para la salud humana. Madrid. McGraw Hill/Interamericana de España S.A. 2003, 370 pp.         [ Links ]

13) Stocker, S. y Seager, S. Química Ambiental. Contaminación del aire y del agua. Barcelona, España. Editorial Blume. 1981, 297 pp.         [ Links ] Volumen 10, Nº 41, diciembre 2006 pp 259-262

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons