Interciencia
versión impresa ISSN 0378-1844
INCI v.32 n.3 Caracas mar. 2007
Modelos de desarrollo del hardware y software basados en el estudio de computación paralela
Alejandro Ruiz Figueroa y Pavel Makagonov
Alejandro Ruiz Figueroa. Candidato a Doctor, Maestro en Electrónica y Computación, Licenciado en Electrónica, Universidad Tecnológica Mixteca (UTM) y Benemérita Universidad Autónoma de Puebla, México. Profesor Investigador UTM, México. Dirección: Instituto de Electrónica y Computación, UTM. Huajuapan de León, Oaxaca, 69000, México. e-mail: figueroa@nuyoo.utm.mx
Pavel Makagonov. Doctor en Filosofía de Tecnología Geofísica, Doctor en Ciencias Técnicas, Maestría en Geofísica, Universidad de Exploración Geológica del Estado de Moscú. Rusia. Profesor Investigador, UTM, México. e-mail: mpp@mixteco.utm.mx
RESUMEN
El análisis de leyes y modelos de evolución del hardware y software, permite cuantificar y evaluar la actividad científica en las áreas de electrónica y computación. Esto facilita a las instituciones implicadas en este proceso, distribuir de una manera mas objetiva los recursos económicos. Para este análisis se coleccionaron 2300 resúmenes relacionados con los temas de computación paralela, concurrente, distribuida y simultánea. El estudio de este material permite conocer la tendencia temporal del hardware y software. Se propone un método para construir modelos cuantitativos específico y general de la evolución de estas áreas. El modelo específico es una curva S reconstruida a partir de los 2300 resúmenes recopilados. El modelo general es la curva tangente a este conjunto de curvas. Se propone un nuevo enfoque para generalizar la ley de Moore, basada en la tendencia temporal de la terminal de control de los dispositivos electrónicos. Los modelos propuestos y desarrollados son útiles para la justificación y explicación evidente de la dirección principal del desarrollo de la "ciencia normal" y la "ciencia revolucionaria" de electrónica y computación.
Models of the evolution of hardware and software based on the study of parallel computing
SUMMARY
An analysis of the laws and models of the evolution of hardware and software allows quantifying and evaluating scientific activity in the areas of electronics and computer science. This enables institutions involved in this process to distribute economic resources more objectively. For this analysis, 2300 abstracts on parallel, concurrent, distributed and simultaneous computing themes were collected and from them the temporal tendency of hardware and software are revealed. Methods for constructing specific and general quantitative models of the evolution of hardware and software are proposed. The specific model is an S-curve constructed from initials of this curve; the general model is the tangential curve which overlaps the set of S-curves. Based on this methodology, a new approach for generalizing Moores law is proposed, based on mapping a temporal tendency of the size of electronic devices. The models proposed and developed are useful for the justification and explanation of the development of "normal science", and "research-front science" in electronics and computing.
Modelos de desenvolvimento do hardware e software baseados no estudo de computação paralela
RESUMO
A análise de leis e modelos de evolução do hardware e software permite quantificar e avaliar a atividade científica nas áreas de eletrônica e computação. Isto facilita às instituições, implicadas neste processo, distribuir de uma maneira mais objetiva os recursos econômicos. Para esta análise se colecionaram 2300 resumos relacionados com os temas de computação paralela, concorrente, distribuída e simultânea. O estudo deste material permite conhecer a tendência temporal do hardware e software. Propõe-se um método para construir modelos quantitativos específico e geral da evolução destas áreas. O modelo específico é uma curva S reconstruída a partir dos 2300 resumos recopilados. O modelo geral é a curva tangente a este conjunto de curvas. Propõe-se um novo enfoque para generalizar a lei de Moore, baseada na tendência temporal do terminal de controle dos dispositivos eletrônicos. Os modelos propostos e desenvolvidos são úteis para a justificação e explicação evidente da direção principal do desenvolvimento da "ciência normal" e a "ciência revolucionária" de eletrônica e computação.
PALABRAS CLAVE / Ciencia Normal / Ciencia Revolucionaria / Curva S / Evolución de la Electrónica / Generalización de la Ley de Moore /
Recibido: 10/08/2006. Aceptado: 23/01/2007.
IntroducciónEl análisis de la evolución de cualquier rama científica abarca problemas de cienciometría (Noyons, 1999; http://egcti.upr.edu/Observa/html/procedimientos.htm), lo que implica analizar grandes cantidades de información, imposible de leer en detalle, principalmente artículos y patentes procedentes de bases de datos, a partir de la selección de indicadores. Existen tres grupos principales de indicadores que muestran, respectivamente, los aspectos estructurales de la ciencia, el impacto de las publicaciones medido a través de las citas que reciben, y el tamaño y características de la producción científica y tecnológica.
Estos indicadores son sometidos a un tratamiento estadístico para, a través de su recuento o cómputo, desarrollar una estructura analítica que permita representar la esencia del tema que abordan los documentos que los contienen y así reflejen las distintas etapas de los procesos de investigación científica. El tercer indicador es importante para estimar los gastos de investigación en las ramas que tienen mayor éxito. Para ello es necesario disponer de una metodología que permita conocer estas áreas y ayude a distribuir los recursos económicos de manera objetiva. Las instituciones implicadas en este proceso requieren de instrumentos de análisis que les permita comprobar la eficacia de sus políticas y les ayude a racionalizar y ajustar estos recursos de acuerdo a la proyección planeada.
No es posible predecir el tiempo exacto o el lugar donde emergerá un nuevo descubrimiento, pero es posible predecir el desarrollo de la "ciencia normal" (Kuhn, 1970), mejorando así los resultados y de esta manera garantizar el capital invertido en la investigación. Para la "ciencia normal" la incertidumbre es menor que para el avance de la ciencia, ya que se basa en resultados anteriores (como regla los principales son resultados contra intuitivos) y el estudio de estos antecedentes da la posibilidad de predecir la tendencia de desarrollo del hardware y software (HSW), siendo esto la base para planear el incremento o decremento de su financiamiento.
Los métodos de análisis para esta predicción son laboriosos y exigen una gran cantidad de artículos. Es por ello que estos métodos son utilizados por grandes instituciones científicas, organizaciones gubernamentales o compañías con gran capacidad financiera. En este trabajo se desarrolla un enfoque y la correspondiente herramienta, que pueda ser usada por las instituciones públicas encargadas de la distribución de los recursos económicos destinados a la investigación científica, así como por investigadores que no tienen acceso a las grandes fuentes de información, debido a que carecen de recursos económicos, pero tienen acceso a información (resúmenes) disponible de forma gratuita en Internet, o a su vez por investigadores principiantes que necesitan estimar las perspectivas del HSW.
La frontera entre el HSW es cada vez más difusa. Los avances tecnológicos han logrado que el significado de estos términos empiecen a traslaparse, ya que la tendencia del hardware es hacia el software y viceversa; y dada la evolución vertiginosa que se ha alcanzado en ambas áreas, es necesario desarrollar una metodología para comparar cuantitativa y cualitativamente su comportamiento durante un cierto período de tiempo, y detectar tendencias en su desarrollo, y bajo esta premisa predecir su estado futuro (Kuhn, 1970; Makagonov y Ruiz Figueroa, 2004).
Para predecir el estado futuro de la electrónica y computación se propone evaluar la dinámica de publicaciones en distintas direcciones del HSW. La información relacionada con el HSW es muy extensa, y eso impide recopilar un porcentaje relativamente grande de información para obtener un muestreo representativo que permita realizar un estudio de su comportamiento real. Debido a esto el presente trabajo se limita al estudio de computación paralela, concurrente, distribuida y simultánea (PCDS), el cual proporciona una perspectiva de la tendencia real del HSW.
Muestras para modelos de flujo de conocimiento científico
Este enfoque está basado en el estudio de textos de artículos científicos (resúmenes) sobre computación PCDS para un período de desarrollo de 15 años (1990-2004). La información sobre estos temas esta disponible gratuitamente en Internet. Tomando en cuenta la disponibilidad de esta información se colectaron 2300 resúmenes relacionados con computación PCDS de la librería digital de IEEE (www.computer.org/publications/dlib/).
Cada rama tiene un período característico para producir un cambio sustancial. Para computación PCDS, es de 6 años (Tushman y O'Reilly, 1999) y tiene una historia de desarrollo alrededor de 30 años, habiéndose desarrollado intensamente en los últimos 10 años. Estas cuatro palabras (PCDS) son términos del nivel más alto de abstracción de la "ontología" en este tema. La tarea es revelar clústeres de palabras que nos den niveles de abstracción más bajos o detalles de esta temática.
Para éste análisis se usa la herramienta "visual heuristic cluster analysis for texts" (VHCA; Makagonov et al., 2000) como paso elemental de la metodología (algoritmo). Esta herramienta se utiliza para obtener un dominio orientado al diccionario (DOD) para el cuerpo de textos, y una imagen de cada texto como vector de cantidades de palabras de DOD (Makagonov et al., 2000).
Con esta metodología se construyen dos prototipos rápidos de ontología (PRO; Makagonov y Ruiz Figeroa, 2005) y se evalúan para hallar las tendencias temporales de desarrollo del HSW. Para este enfoque se preparan modelos estadísticos temporales; como el modelo de la curva S (Fik, 2000) o conjuntos de curvas S, que generalizados por medio de la tangente, determinan el comportamiento de la electrónica desde la invención del efecto Edison en 1879 (Parra, 1996) hasta los procesadores mas recientes como es el "Core Duo T2600" o el "Core Duo D950" de Intel (www.intel.com/pressroom/kits/quickreffam.htm), fabricado a principios del año 2006. Basado en este principio se propone un nuevo enfoque de la ley de Moore para predecir la evolución de la electrónica, eligiendo como variable principal el tamaño de la terminal de control de los dispositivos electrónicos.
Modelos temporales de desarrollo tecnológico y científico
En la Figura 1a se muestra el desarrollo de un sistema llamado ciclo de vida o, por lo general, curva S. Al principio, el desarrollo es lento (etapa I), en cierto punto hay un incremento en la rapidez de desarrollo (etapa II), después el desarrollo del sistema se reduce antes de que el crecimiento del parámetro termine (etapa III). Esto significa la aparición de contradicciones o nuevos sistemas. A veces los parámetros empiezan a decrecer, lo que significa la muerte del sistema (etapa IV).
Figura 1. Evolución de un sistema. a: Etapas del ciclo de vida de un sistema o curva S. b: Formas de representar las curva S. c: Evolución de un sistema a salto y curva tangente para la evolución de los dispositivos electrónicos.
En la Figura 1b se muestra dos formas de representar la curva S, que en ocasiones se asocia con la curva logística. Cuando este es el caso, el lado derecho de la curva tiene una asíntota horizontal. Otras veces se representa como la curva de catástrofe que describe el fin de un desarrollo (etapa IV de la Figura 1a) que ha tenido un comienzo gradual, suave, pero que sin embargo se prevé que irá al final, hacia una completa extinción, tal vez abrupta. En muchas ilustraciones se muestra solamente la parte de la curva que se encuentra cerca del vértice en la Figura 1b.
Para este análisis se acepta el modelo de la curva S como una función no decreciente. En este caso sus características esenciales son punto de inflexión y restricciones horizontales. Para el caso del modelo logístico estas restricciones horizontales son sus asíntotas.
La evolución del ciclo de vida de cada sistema ocurre de acuerdo a las curvas mostradas en la Figura 1, para los parámetros cuantitativos (Kuhn, 1970). Cuando un cierto límite de evolución cuantitativa se alcanza, el sistema experimenta cambios cualitativos o es sustituido por otro sistema. La nueva calidad aumenta el índice de crecimiento. Durante este proceso, los cambios cuantitativos o "ciencia normal" ocurren continuamente mientras que los cambios cualitativos de la "ciencia revolucionaria" (Hess, 1997) ocurren en pasos discretos. La "ciencia normal" crece en la etapa de desarrollo del sistema y disminuye en el momento de desuso. El final del crecimiento de un sistema no significa el final de la evolución en este campo. Los nuevos sistemas más avanzados cobran vida, un salto en la evolución ocurre. La evolución adicional del sistema comienza según una nueva curva S. Tal proceso se observa en la Figura 1c. El sistema S2 aparece en lugar del sistema S1. El salto en la evolución sigue y del mismo modo aparece el sistema S3, después el sistema S4 etc. El avance entero en el campo puede ser visto como una tangente a las curvas S (línea punteada en la Figura 1c) llamada curva tangente.
Un ejemplo de este comportamiento lo podemos observar en la evolución de los dispositivos electrónicos, iniciando con la invención del efecto Edison en el año de 1879 (Parra, 1996), considerado como momento cero o punto de partida de la era electrónica. Posteriormente la válvula de vacío del físico inglés John Ambrose Fleming en 1904 (Boylestad y Nashels, 1996), sustituyó a los relés electromecánicos o relés telefónicos. A esta válvula, Lee de Forest le agregó un tercer electrodo llamado rejilla de control y nació el bulbo (http://perso.wanadoo.es/electronics/radio/100radio2.html), primer elemento electrónico con aplicaciones prácticas. El descubrimiento del transistor en los laboratorios Bell en 1947 por Brattain, Bardeen y Shockley (Bardeen, 1950) sustituyó al bulbo por su mayor fiabilidad, menor tamaño y menor costo. Once años después, en 1958, Jack Kilby de Texas Instruments Inc. (Kilby, 1964; Boylestad y Nashels, 1996) y Robert Noyce, Jean Hornei de Fairchild Semiconductor Corp. diseñaron de manera independiente el primer circuito integrado (Brinkman et al., 1997), el cual remplazó al transistor, por características similares por las que sustituyó el transistor al bulbo. Sucesivamente, en 1971 nació el primer microprocesador 4004 de 4 bits y 275 transistores, realizado por los ingenieros Ted Hoff y Federico Faggin (www.intel4004.com), hasta el procesador Pentium D950 con tecnología de 65nm. Lo anterior da la posibilidad de observar que los cambios cuantitativos suceden en pasos continuos, mientras que los cambios cualitativos suceden en pasos discretos y la evolución de la ciencia electrónica puede observarse como una curva tangente a las curvas S como se muestra en la Figura 1c.
Resultados de las curvas S y logística para computación PCDS, VLSI y Fault Tolerance
Cuando se presenta un problema científico y su nombre cuenta con algunas "palabras claves", éstas se pueden encontrar como títulos de artículos, títulos de congresos o títulos de revistas. Según la opinión en los grandes círculos científicos todo tema suficientemente grande es distribuido en una proporción de 1 a 3 en revistas cuyo título corresponde al nombre del tema dado, revistas cuyas secciones contienen el nombre del tema dado y otras revistas que no contienen el nombre del tema dado ni en su título ni en sus secciones.
La hipótesis propuesta es que la misma distribución de artículos sobre computación PCDS se encuentra en la sección de congresos. Una restricción principal es que los congresos sobre este tema no dependen del idioma del trabajo, por eso se consideran congresos solamente en ingles y no se indaga si esto es verdadero para otros idiomas (ruso o chino), por lo que se concluye en límites de esta hipótesis que es posible construir un muestreo representativo si se elige todos los artículos sobre el tema de la base de datos de la librería digital de IEEE. En este caso el muestreo es representativo, pero esto es verdadero si esta hipótesis (librería digital es representativa sobre nuestro tema) es verdadera.
En la Figura 2a se muestra el histograma de la distribución de datos de los artículos coleccionados. Se observa que la tendencia es creciente hasta 1997, año en que se tiene una colección de 212 artículos. En 1998 el interés por estos temas disminuye en 94 artículos, siendo una posible causa que el interés de los investigadores se haya enfocado a nuevos temas de investigación, ya que también la ciencia tiene temas que se ponen de moda durante cierto tiempo, o el apoyo económico para estos temas se haya reducido. En 2000 alcanza un total de 215 artículos. Estos temas vuelven a tener interés dentro de la comunidad científica aumentando gradualmente hasta el 2004.
Figura 2. Histograma y curva acumulada de los 2300 artículos de la librería digital de IEEE para los temas computación PCDS para el período de 1990 al 2004. a: Histograma. b: Aproximación mediante un polinomio de tercer orden.
Se puede considerar la Figura 2b como un histograma de valores con una distribución en forma de curva S. Esta curva se puede aproximar entre dos asíntotas horizontales: ymin(PCDS) =61,3808, ymax(PCDS) =4676,2924 y el polinomio de tercer orden
yPCDS = ax3 + bx2 + cx + d (1)
con mínimo a la izquierda y máximo a la derecha, como se muestra en la Figura 3a.
El ajuste de los datos se realizó mediante el método de mínimos cuadrados, con lo que se obtuvieron los coeficientes del polinomio cúbico
yPCDS = -0,3422x3 + 15,0394x2 + 10,5024x + 63,2000 (2)
La línea punteada de la Figura 3a muestra el polinomio cúbico de la Ec. 2, con su punto mínimo en xmin(PCDS) =-0,3451 y su máximo en xmax(PCDS) =29,6446. Para este estudio es interesante conocer el punto de inflexión de este polinomio ya que este punto expresa el máximo interés del tema de computación PCDS.
Figura 3. Asíntotas superior e inferior de la función logística (linea contnua) y rectas superior e inferior del polinomio cúbico (linea punteada) para a: computación PCDS, b: VLSI y Fault-Tolerance.
Los coeficientes a, b, c, y d dan la posibilidad de calcular x en el punto de inflexión como
(3)
que corresponde a julio 2004. En esta fecha se tiene el máximo interés para computación PCDS, y para fechas posteriores el interés empieza a decaer hasta el punto xmax(PCDS), fecha en que el tema será obsoleto y que corresponde a agosto 2019. Revisando (Grompone, 1997; Grove, 2002; Shiro, 2002; Walden, 2002) y siguiendo la evolución tecnológica de los circuitos integrados, los cuales permiten el desarrollo de sistemas cada vez más complejos y a su vez comprendidos en la denominada ley de Moore (Schaller, 1997), es posible encontrar artículos que hablan sobre el final de la era del silicio en el año 2020 (www.tecnologiaempresarial.info/circuito5.asp?id_nota=11395&ids=2) lo cual coincide con los presentes cálculos. El punto xmin(PCDS) indica el inicio de la computación PCDS, que corresponde a abril 1989. Esta fecha no coincide exactamente con el inicio real de la computación PCDS, ya que existen artículos anteriores a esta fecha que tratan este tema (Olukotun y Mudge, 1987; Ahuja et al., 1988; Chen, 1988; Kang et al., 1988; Mikkilineni et al., 1988). Una razón es que las investigaciones realizadas sobre computación PCDS en la década de los 80 se realizaban de manera secreta en supercomputadoras Cray y los resultados se reservaban para fines militares o gubernamentales. En esa fecha no había congresos relacionados con el tema de computación PCDS, lo que hace más difícil determinar el valor mínimo o nacimiento exacto de esta rama científica. Para poder obtener resultados reales es necesario hablar de "ciencia normal abierta", lo cual implica tener congresos y difusión abierta de la ciencia.
En el análisis realizado para computación PCDS con la herramienta VHCA para textos, se encontró que la frecuencia de ocurrencia para "VLSI" y "Fault Tolerance" (tolerancia a fallos) es muy alta. De los 2300 resúmenes sobre computación PCDS, 596 (26,8%) contienen información sobre estos temas. De igual forma que para computación PCDS, se considera la distribución acumulada y la regresión polinomial para los 596 artículos que contienen información sobre los temas de VLSI y Fault Tolerance. Esta curva S se aproxima entre dos asíntotas horizontales con ymax(VLSI-Fault) =957,2896, ymin(VLSI-Fault) =10,8943 y el polinomio de tercer orden
y = -0,075289x3 + 2,6081x2 + 18,3430x + 40,4510 (4)
Este polinomio tiene su valor mínimo en xmin(VLSI-Fault) =-3,1003 y su máximo en xmax(VLSI-Fault) =26,1944 como se muestra en la Figura 3b. El punto de inflexión xinf(VLSI-Fault) =11,5470 corresponde a junio 2001. En esta fecha se dio el máximo interés de este tema, y para fechas posteriores el interés empieza a decaer hasta el punto xmax(VLSI-Fault), cuando el tema se considera obsoleto y corresponde a febrero 2016. El punto xmin(VLSI-Fault) indica el inicio de los temas VLSI y Fault Tolerance de manera conjunta y corresponde a enero 1987. La tecnología VLSI inicia a principios de la década de los 80 (Andou, 1985; McLellan, 1985; Jones y Simon, 1986) de manera independiente del tema Fault Tolerance; pero los primeros sistemas VLSI que tenían Fault Tolerance se dieron a finales de los 80 (Hǎncu y Smith, 1986; Singh, 1988; Koren y Singh, 1990) lo cual coincide con el presente cálculo.
En la Figura 1b se mostró dos formas de representar la curva S. La más común es asociarla con la curva logística. Este modelo se fundamenta en una curva en forma de S, alargada, acotada en el intervalo abierto (0,a) tal que el valor esperado de la variable independiente tiende a cero cuando los valores de las variables explicativas tienden a ser muy grandes y convergen hacia a. La ecuación que rige el comportamiento de este modelo es
y se aproxima con el polinomio de la Ec. 1, cuyo punto de inflexión esta dado por
Las Ecs. 3 y 6 permiten calcular el punto de inflexión de dos formas distintas. Mientras que para la función logística se obtiene cuando x = g
La condición suficiente y necesaria para hallar el valor de a es que el punto de inflexión del polinomio cúbico sea igual al punto de inflexión de la función logística, y el valor de b se obtiene cuando la primera derivada del polinomio cúbico y la primera derivada de la función logística son iguales. Siguiendo el procedimiento anterior se obtienen los valores para a y b. El valor de g esta dado por la Ec. 3. Sustituyendo los valores obtenidos para a, b y g, se tiene la función logística que determina el comportamiento de la curva S, aproximada mediante el polinomio cúbico de la Ec. 2 como
La Figura 3a muestra las dos curvas obtenidas para computación PCDS. La curva punteada corresponde al polinomio cúbico y la curva continua corresponde a la función logística. La recta superior que limita el polinomio cúbico y que pasa por xmax(PCDS), esta dada por ymax(PCDS) =4676,2924.
El valor obtenido para aPCDS =4737,7038 corresponde a la asíntota superior de la función logística y la diferencia de aPCDS e ymax(PCDS) permite conocer la discrepancia entre ambas curvas para computación PCDS, que es de 1,3%.
Estos resultados se observan en la Figura 3a. Repitiendo el proceso para VLSI y Fault Tolerance se obtiene la Figura 3b, donde se muestran las dos curvas obtenidas. La recta superior que limita el polinomio cúbico y la asíntota superior de la función logística están dadas por ymax(VLSI-Fault) =957,2896 y a(VLSI-Fault) =968,4528 respectivamente. La diferencia de ambas permite conocer la discrepancia, que es de 1,16%.
Propuesta de un enfoque distinto de la Ley de Moore
La evolución tecnológica de los circuitos integrados está resumida en la denominada ley de Moore. Esta ley es un razonamiento formulado por Gordon E. Moore en 1965, cuatro años después de que el primer circuito integrado fuera descubierto. Moore predijo que "el número de elementos que la industria es capaz de colocar en un chip de computadora se duplicará cada 12 meses". En realidad, los cálculos originales solo contemplaban el crecimiento exponencial durante los primeros 10 años. Esta ley ha sido revisada, corregida y distorsionada de forma constante, en las décadas de los 80 y 90. El propio Moore cambió los históricos 12 meses por 24 en 1975 (ninguna de las dos cifras explica el número de transistores que hoy tiene un procesador de una PC) y nuevamente la formulación original de la ley cambió a principios de los 90 para centrarse únicamente en el número de transistores que podían integrarse en un chip, una cifra que se dobla cada 18 meses. Algunos estudiosos del fenómeno (Tuomi, 2002; http://firstmonday.org/issues/issue7_11/tuomi/index.html) van más allá y consideran que la ley de Moore "jamás ha predicho con exactitud el desarrollo en el campo de la microelectrónica" y que se trata en realidad de un mito y una atribución sin sentido, dado que varios científicos de la época conocían también este crecimiento exponencial y predijeron con mayor exactitud los futuros niveles de integración. Más que una ley, se debería hablar de una tendencia.
Existen distintos enfoques (Álamo, 2000; García y Aguirre, 2005; www.esi2.us.es/ISA/GAR/doc_doct.html) para explicar y representar la ley de Moore. El más popular es la cantidad de transistores que pueden construirse en un chip. Algunos autores prefieren la frecuencia de reloj, otros la disipación de potencia, el costo de fabricación, unos más optan por la tendencia de cambio, etc. Esta situación conectada con los puntos débiles de cada enfoque hace que no exista una posición estándar para formular la denominada ley. Por ejemplo, el enfoque más popular, la duplicación de transistores, es criticada porque no es una determinación, ya que se ha cambiado varias veces el período de tiempo (desde 12 hasta 24 meses). Al mismo tiempo, el punto débil más importante es que la cantidad de transistores no es una característica universal, ya que el aumento de éstos en un chip implica disminución en su tamaño, razón que obligó utilizar sistemas Fault-Tolerance dentro de los sistemas VLSI.
Como medida para luchar con el problema de duplicación y reservación de esquema, se han investigado formas de integración que permitan mantener el ritmo esperado y empotrar cada vez más transistores en el mismo o en menor espacio de silicio. Una de ellas es la tecnología doble núcleo (double core; Intel, 2005) que se ha convertido rápidamente en parte central para los principales productores de chips, en un esfuerzo por mejorar el desempeño de los procesadores. Por ejemplo, si la cantidad de transistores aumenta dos órdenes de integración, estos procesos de duplicación disminuyen la cifra de elevación efectiva de dos ordenes a una, implicando una disminución en la cantidad de transistores y reduciendo la posibilidad de utilizar sistemas Fault-Tolerance.
Otra característica que cambia con la tendencia de duplicación de la cantidad de transistores en un chip, es la disminución del tamaño del transistor. Esta propiedad ha evolucionado en base al tamaño de la longitud de su puerta, como se muestra en la Tabla I, donde se observa el efecto Edison como momento cero o punto de partida de la era electrónica con una longitud aproximada de 17cm entre filamento y placa metálica interna (Parra, 1996), hasta el procesador Pentium D950 con tecnología de 65nm en 2006 (www.intel.com/pressroom/kits/quickreffam.htm; http://blogdrake.net/node/3712). Siguiendo la ley de Moore, Intel predice para 2007, 2009 y 2011, tecnologías de 45nm, 32nm y 22nm, respectivamente (Shiro, 2002).
La Tabla I y la distribución se prepararon para
-log(tamaño de la terminal de control) (9)
donde el signo "-" se aplica para comodidad de observar un progreso con tendencia creciente (curva S como modelo). El logaritmo del tamaño es necesario para disminuir el rango de escala que se tiene desde el efecto Edison hasta el procesador Pentium D950. Con esta ecuación se obtiene la curva de la Figura 4. Esta curva conforma un simple eslabón fractalizado de una conformación similar en cadena. Cada una de las curvas S individuales va cediendo paso a otra curva S inmediatamente superior. Entre los eslabones (curvas S individuales) en lugar de los tradicionales elementos de continuidad, aparecerán rupturas (discontinuidades y situaciones caóticas). Así, los cambios de paradigma representan momentos revolucionarios menores dentro de una cadena mayor de características evolutivas. No es difícil explicar esta estructura de curvas S en escalera; cada nuevo escalón (subcurvas S) enlaza el cambio de tecnología de fabricación del transistor. Para conocer la tendencia de evolución del tamaño del transistor, se traza la tangente a las múltiples curvas S. Por su generalización, no existe un método para construir la curva tangente de manera similar al método de mínimos cuadrados. Para este análisis se propone dos métodos, bien seleccionando los puntos que tienen mayor grado de concavidad, o bien mediante un método recurrente.
Figura 4. Evolución del tamaño de los disositivos electrónicos. conjunto de curvas S y recta tangente despreciando los dos primeros términos del polinomio cúbico.
Para el primer método no es necesario considerar el conjunto de curvas S mostradas en la Figura 4; es suficiente tomar en cuenta los puntos B, C, D y E de las curvas que tienen mayor grado de concavidad. La curva tangente inicia en el punto A y tiene por coordenadas el año de invención y tamaño del efecto Edison, su tangente es horizontal en este punto y continúa en los puntos mostrados en la Tabla II. Estos puntos se aproximan mediante el polinomio cúbico
y=-0,0000137x3+0,000592x2+0,05722x -2,2563 (10)
Los dos primeros miembros de la Ec. 10 son despreciables, comparados con los dos últimos, lo que permite utilizar la segunda parte de este polinomio para aproximar los puntos de la Tabla II. La discrepancia que se obtiene al utilizar la parte lineal del polinomio es menor del 3% para los primeros 10 años, y para 20 años hay un error de aplicación del 11,44%.
Esta recta tangente se muestra en la Figura 4, donde se observa el punto A marcando el inicio de la era electrónica. Prolongando esta recta tangente se observa que intercepta la recta horizontal x=0,3010, en el punto G que corresponde al año 2043. La recta horizontal muestra el límite mínimo que puede tener un dispositivo que conserve la información en base al cambio de energía del electrón, esta distancia es la diferencia entre las bandas de conducción y valencia, y tiene un valor aproximado de 5Å; después de este tamaño no es posible proponer un dispositivo mas pequeño para electrónica.
El método anterior proporciona una aproximación debido a que los puntos tangenciales se eligieron basados en la inspección ocular de la Figura 4. El segundo método, basado en la aproximación de la curva tangente con polinomios de segundo orden, permite calcular los puntos exactos mediante una ecuación de recurrencia y evitar arbitrariedades.
La Figura 5a muestra el método para hallar la ecuación de recurrencia. El punto X0 se fija como punto inicial o punto de previa iteración, que corresponde al año de inicio de la era electrónica. En este punto F(x0)=S0 y F'(x0)=S'0. Para las xi restantes se fijan las condiciones Fi(xi)=Si(xi) y F'i(xi)=S'i(xi), donde la tangente F, la curva Si y sus derivadas tienen el mismo valor en el punto xi+1 pero la abscisa es desconocida. De esto se tiene 4 ecuaciones algebraicas con 4 incógnitas (coeficientes de parábola A, B, C y punto xi+1) al mismo tiempo. Se consideran conocidos xi, F(xi) y F'(xi). La solución de este problema esta dada por
(11)
Figura 5. Metodología para hallar los puntos tangentes. b: Conjuntos de curvas S aproximadas mediante parábolas.
La Figura 5b muestra los resultados de este análisis y, al igual que la curva de la Figura 4, no tiene restricciones en la parte superior derecha. Este límite se alcanza en el punto F, donde la tangente encuentra la recta horizontal x=0,3010 y corresponde al año 2051. El punto F indica el fin del desarrollo de la electrónica como ciencia límite que emplea el flujo de electrones para transmisión, almacenamiento y tratamiento de información.
Conclusiones
El análisis de los 2300 resúmenes sobre computación PCDS con la herramienta VHCA, permitió obtener un prototipo rápido de ontología (PRO) para hallar la tendencia temporal de la evolución del HSW. Con las herramientas VHCA se descubrió que el 26,8% de estos resúmenes contiene información relacionada con VLSI y Fault-Tolerance. Se preparó el modelo estadístico temporal para determinar el ciclo de vida (curva S) de cada tema. Basado en la estadística del tamaño de la terminal de control para los dispositivos electrónicos (bulbo, transistor, mosfet, etc), se muestra una generalización de la ley de Moore como una curva tangente a las múltiples curvas S, que reflejan la evolución del tamaño de la terminal de control para distintas épocas. Este enfoque proporciona información sobre la frontera del ciclo de vida de la electrónica como "ciencia revolucionaria".
Como se aprecia en las Figuras 4 y 5b los límites naturales de aplicación de la electrónica, que se encuentra en su etapa de madurez, alcanzarán la etapa de obsolencia a partir de 2043-2051, período en el que la electrónica y nanoelectrónica podría ser sustituida por la electrónica molecular o fotónica.
Referencias
1. Ahuja S, Carriero NJ, Gelernter DH, Krishnaswamy V (1988) Matching Language and Hardware for Parallel Computation in the Linda Machine. IEEE Trans. Comp. 37: 921-929. [ Links ]
2. Alamo J (2000) Microelectrónica de Si. De la era de las PC a la era de Internet. Departamento de Ingeniería Electrónica y Ciencias de la Computación. Massachussets Institute of Technology. Cambridge, MA, EEUU. pp. 54-63. [ Links ]
3. Andou H (1985) Automatic routing algorithm for VLSI. En Proc. 22nd ACM/IEEE Conf. on Design Automation (DAC 85). pp. 785-788. [ Links ]
4. Bardeen J (1950) Three-Electrode Circuit Element Utilizing Semiconductive Materials. Patent issued to Bell Labs. U.S. Patent 2,524,035. [ Links ]
5. Boylestad LR, Nashels L (1996) Electronic Devices and Circuit Theory. 6th ed. Prentice Hall. Upper Saddle River, NJ, EEUU. pp 114-115, 607-608. [ Links ]
6. Brinkman FW, Haggan E, Troutman W (1997) A History of the Invention of the Transistor and Where It Will Lead Us. IEEE J. Solid-State Circ. 32: [ Links ]
7. Chen CM (1988) The Generation of a Class of Multipliers: Synthesizing Highly Parallel Algorithms in VLSI. IEEE Trans. Comp. 37: 329-338. [ Links ]
8. Fik JT (2000) The Geography of Economic Development. En Regional Changes, Global Changes. Second Edition. McGraw-Hill. Department of Geography University of Florida, EEUU. pp 260-265. [ Links ]
9. García LF, Aguirre M (2005) Microelectrónica Digital. Curso de Doctorado. Departamento de Ingeniería Electrónica. Escuela Superior de Ingenieros Universidad de Sevilla, Sevilla España. http://www.dinel.us.es/doctorado/ [ Links ]
10. Grove A (2002) Changing Vectors of Moores Law. En Int. Electron Devices Meet. December 10, 2002. San Francisco, California Estados Unidos. Document Number: [IR-TR-2002-13]. ftp://download.intel.com/research/library/IR-TR-2002-13-Grove_IEDM_1202.pdf [ Links ]
11. Grompone J (1997) Smaller, faster, cheaper. 1er Cong. Nac. Informática. Publicado en 1999 por la oficina de Apuntes del CECEA. Montevideo, Uruguay. pp. 1-17. http://www.uruguaypiensa.org.uy/categoria_40_1_1.html [ Links ]
12. Hǎncu MVA, Smith CK (1986) A VLSI supercomputer architecture supporting two-level fault tolerance, program graph injection and data levitation concepts. En Proc. ACM 14th Annu. Conf. on Computer Science (CSC 86). Cincinnati, Ohio, EEUU. pp. 115-120. [ Links ]
13. Hess JD (1997) Science Studies: An Advanced Introduction. NYU Press. Nueva York, EEUU. 77 pp. [ Links ]
14. Jones GL, Simon J (1986) Hierarchical VLSI design systems based on attribute grammars. En Proc. 13th ACM SIGACT-SIGPLAN Symp.on Principles of Programming Languages (POPL 86). pp. 58-69. [ Links ]
15. Kang JY, Herzog HJ, Spragins J (1988) A Distributed Architecture for High-Performance Local Computer Networks. IEEE Trans. Comp. Vol 37: 119-123. [ Links ]
16. Kilby J (1964) Miniaturized Electronic Circuits. Patent issued to Texas Instruments. U.S. Patent 3,138,743. [ Links ]
17. Koren I, Singh DA (1990) Fault Tolerance in VLSI Circuits. Computer Vol 23. 73-83. [ Links ]
18. Kuhn TS (1970) The Structure of Scientific Revolutions. University of Chicago Press. Chicago, IL, EEUU. pp. 33-91. [ Links ]
19. Makagonov P, Alexandrov M, Sboychakov K (2000) A toolkit for development of the domain-oriented dictionaries for structuring document flows. En Kiers HAL, Rasson JP, Groenen PJF, Schrader M (Eds.) Data Analysis, Classification, and Related Methods. Springer. Berlín, Alemania. pp. 83-88. [ Links ]
20. Makagonov P, Ruiz Figueroa A (2004) Study of Knowledge Evolution in Parallel Computing by Short Texts Analysis. En Progr. in Pattern Recognition, Image Analysis and Applications (CIARP2004). Lecture Notes in Computer Science Nº 3287. Springer. Berlín, Alemania. pp. 439-445. [ Links ]
21. Makagonov P, Ruiz Figueroa A (2005) A Method of Rapid Prototyping of Evolving Ontologies. En Lecture Notes in Computer Science Nº 3406, Springer. Berlín, Alemania. pp. 746-749. [ Links ]
22. McLellan P (1985) Effective data management for VLSI design. En Proc. 22nd Conference on Design Automation (DAC 85). ACM/IEEE. pp. 652-657. [ Links ]
23. Mikkilineni PK, Chow CY, Stanley YW (1988) Petri-Net-Based Modeling and Evaluation of Pipelined Processing of Concurrent Database Queries. IEEE Trans. on Software Engineering Vol 14: 1656-1667. [ Links ]
24. Noyons ECM (1999) Bibliometric Mapping as a Science Policy and Research Management Tool. DSWO PRESS. Leiden University. Holanda. 225 pp. [ Links ]
25. Olukotun AO, Mudge NT (1987) A preliminary investigation into parallel routing on a hypercube computer. En Proc. 24th Conf. on Design Automation (DAC 87). ACM/IEEE. pp. 814-820. [ Links ]
26. Parra L (1996) Televisión a Color Moderna. Centro Japonés de Información Electrónica. Ecatepec de Morelos, México, México. pp. 3-11. [ Links ]
27. Schaller RR (1997) Moore´s Law: past, present and future. IEEE Spectrum Vol 34: 52-59. [ Links ]
28. Shiro K (2002) Nanotechnology Fueling Moores Law. Technology & Manufacturing Group / Intel Corporation. Document Number: [IR-TR-2003-23]ftp://download.intel.com/research/library/IR-TR-2003-23-ShiroIDFTokyo041103.pdf [ Links ]
29. Singh DA (1988) An Area Efficient Fault Tolerance Scheme for Large Area VLSI Processor Arrays. IEEE Trans. Comp. Vol 37: 1398-1410. [ Links ]
30. Tuomi I (2002) The Lives and Death Moores Law. First Monday. Peer-Reviewed Journal on the Internet. Vol. 7: pp. 1-35. (http://firstmonday.org/issues/issue7_11/tuomi/index.html). [ Links ]
31. Tushman M, OReilly C (1999) Winning Through Innovation. Harvard Business School Press (January). Boston, MA, EEUU. pp 75-84 [ Links ]
32. Walden J (2002) 90nm and Beyond: Moores Law and More. Technology and Manufacturing Group. Copyright / Intel Corporation. San Francisco, CA, EEUU. Document number: [IR-TR-2003-20]. ftp://download.intel.com/research/library/IR-TR-2003-20-JoshIDFBerlin0403.pdf [ Links ]