Ajuste paramétrico c
1
y c
2
en el desempeño del algoritmo de
optimización de partículas – PSO
Parametric adjustment c
1
and c
2
in the performance of particle
swarm optimization – PSO
MSc, Bodero Poveda Elba María
1
ebodero@unach.edu.ec
MSc, Villacrés Cevallos Edison Patricio
1
evillacres@unach.edu.ec
MSc, Ricaurte Ortiz Paúl Stalin
1
pricaurte@unach.edu.ec
MSc, Paredes Herrera Marco Marcel
1
mparedes@unach.edu.ec
MSc, Chiriboga Zamora Patricia Alexandra
1
pchuriboga@unach.edu.ec
Recibido: 1/12/2018; Aceptado: 1/02/2019
RESUMEN
La estimación de costos es un proceso vital en la planificación de la producción
industrial, garantizando una mayor exactitud. Un producto en su ciclo de vida parte
de la estimación de costos, logrando con ello establecer los elementos de diseño,
viabilidad y márgenes de utilidad. El algoritmo metaheurístico poblacional
Optimización de Enjambre de Partículas (PSO) desde su aparición ha demostrado ser
eficiente en la solución de problemas de optimización, la variación de sus parámetros
ha permitido mejorar su eficiencia. Entre los parámetros de configuración se
encuentran los coeficientes de aceleración c
1
y c
2
. El presente trabajo está centrado
en realizar un estudio del ajuste paramétrico de c1 y c2 en el desempeño de
1
Universidad Nacional de Chimborazo.
Ecuador
Revista científica Ciencia y Tecnología Vol 19 No 22 págs. 94-107
http://cienciaytecnologia.uteg.edu.ec
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
95
PSO para resolver un problema de estimación de costos en la fabricación de tuberías.
Dado que los diseñadores son propensos a cometer errores y en la búsqueda de
modelos que representen al fenómeno estudiado, se ha demostrado que la
modelación de problemas no lineales, basada en Redes Neuronales Artificiales (ANNs)
provee aproximaciones con bajo margen de error. En consecuencia, en este artículo
es mostrada la implementación de una Red Neuronal Artificial (ANN) tipo feedforward
sigmoidal con aprendizaje PSO para lograr mejorar la exactitud en la estimación de
costos. El estudio de caso utilizado para evaluar el modelo, corresponde a datos
provenientes de la producción de tubería para la transferencia de fluidos en la
industria minera con información relacionada al peso, tipo de soldadura, diámetro y
el correspondiente costo. Los valores evaluados como coeficientes de aceleración
estuvieron en el rango 0 a 10, los demás parámetros, en este caso factor inercial y
el tamaño de enjambre se trabajaron con valores fijos. La función objetivo utilizada
es el Error Cuadrático Medio (MSE), calculado entre los valores observados y los
valores estimados por la ANN. A partir de los resultados se puede observar que
valores muy pequeños de c1 y c2 obtienen baja exactitud en la estimación de costos
de fabricación de tubería, en tanto que la mejor exactitud es lograda por medio de una
ANN con aprendizaje PSO, cuyos coeficientes de aceleración son mayores o iguales a
0.5.
Palabras Clave: coeficientes de aceleración, metaheurística poblacional, método
estocástico, particle swarm optimization
ABSTRACT
The estimation of costs a vital process in the planning of industrial production,
guaranteeing greater accuracy. A product in its life cycle starts from the estimation
of costs, achieving in this way to establish the elements of design, viability and profit
margins. The metaheuristic population algorithm Optimization of Particulate Swarm
(PSO) since its appearance has proven to be efficient in solving optimization
problems, the variation of its parameters has allowed to improve its efficiency. Among
the configuration parameters are the acceleration coefficients c1 and c2. The present
work is focused in carrying out a study of the parametric adjustment of c1 and c2 in
the performance of PSO to solve a problem of estimation of costs in the manufacture
of pipes. Given that designers are prone to make mistakes, and in the search for
models that represent the phenomenon studied, it has been demonstrated that the
modeling of nonlinear problems, based on Artificial Neural Networks (ANNs), provides
approximations with a low margin of error. Consequently, this article shows the
implementation of an Artificial Neural Network (ANN) type sigmoidal feedforward with
PSO learning to improve the accuracy of cost estimation. The case study used to
evaluate the model corresponds to data from the pipeline production for the transfer
of fluids in the mining industry with information related to the weight, welding type,
diameter and the corresponding cost. The values evaluated as coefficients of
acceleration were in the range 0 to 10, the other parameters, in this case inertial
factor and the size of swarm were worked with fixed values. The objective function
used is the Mean Square Error (MSE), calculated between the observed values and
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
96
the values estimated by the ANN. From the results it can be seen that very small
values of c1 and c2 obtain low accuracy in the estimation of pipe manufacturing costs,
while the best accuracy is achieved by means of an ANN with PSO learning, whose
acceleration coefficients they are greater than or equal to 0.5.
Keywords: acceleration coefficients, population metaheuristics, stochastic method,
particle swarm optimization
Introducción
Particle Swarm Optimization (PSO) es un método estocástico de optimización global
que inicia con estudios realizados por Kennedy y Eberhart (1995, 2001), donde, el
proceso evolutivo se reduce a mover cada partícula dentro del espacio de soluciones
con una velocidad que variará de acuerdo a la actual, a la memoria de la partícula y
a la información global que comparte el resto del enjambre, utilizando una función
de fitness para cuantificar la calidad de cada partícula en función de la posición que
ésta ocupe, más allá de la propia naturaleza del método, los esquemas existentes
para la implementación son muy diversos. En la investigación realizada por Carlisle y
Dozier (2001) se muestran variantes dependiendo de cómo se actualicen las
posiciones de las partículas, y surgen las versiones síncrona y asíncrona del algoritmo.
Adicionalmente, dependiendo de cómo se haga influir la experiencia acumulada por
el enjambre sobre el movimiento de cada una de las partículas que lo integran, se
puede distinguir entre PSO local y global, como lo indican Eberhart y Shi (2001).
Dado que el problema de ajuste paramétrico en sistemas adaptables puede
asimilarse como un problema de optimización, se aprovecha este hecho para realizar
el proceso utilizando PSO.
Son muy extensas las variantes que los autores e investigadores plantean a nivel
mundial, con el propósito de mejorar el rendimiento del algoritmo original en
aplicaciones concretas. Al trasladar la filosofía de PSO al campo de la vida artificial y
del cómputo evolutivo, entre las múltiples áreas donde ha sido aplicado con éxito,
destacan por su importancia: optimización de funciones y resolución de problemas
matemáticos complejos (Laskari et al., 2002), (Hu et al., 2003)), optimización de
pronóstico sobre algoritmos clásicos (Barba y Rodríguez, 2015), optimización de
estimación de datos con redes neuronales artificiales (Barba y Bodero, 2017),
(Bodero y Leguizamón, 2018), entrenamiento de redes neuronales (Ismail y
Engelbrecht, 2000), (Srinivasan et al., 2003), (Eberhart, Hu, 1999), (Wang et al.,
2004), optimización de sistemas dimicos (Hu y Eberhart, 2002), (Vesterstrom y
Riget, 2002), procesado de señal (Zhao y Zheng, 2004), (Lu y Yan, 2004), gestión,
planificación y optimización de recursos en redes de distribución de energía eléctrica
(Naka et al., 2001), (Koay y Srinivasan, 2003), (Naka et al., 2003), (Miranda y
Fonseca, 2002), (Gaing, 2003), (Chang y Lu, 2002), gestión de redes de sensores
(Veeramachaneni y Osadciw, 2004(1)), (Veeramachaneni y Osadciw, 2004(2)),
planificación de red en servicios de telecomunicación (Yangyang et al., 2004), gestión
empresarial (Tasgetiren y Liang, 2003) y teoría de juegos (Franken y Engelbrecht,
2004), entre otros.
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
97
Por otro lado, una Red Neuronal Artificial, ANN por sus siglas en inglés de Artificial
Neural Network, conocida como Perceptrón Multicapa es un modelo inspirado en el
sistema neurológico humano, cuyo objetivo es imitar el paradigma de aprendizaje.
Las ANNs han sido ampliamente implementadas en procesos de estimación,
predicción, y extracción de características. La aplicación de las ANNs en procesos de
estimación ha sido observada en diferentes tipos de industrias, tales como química
(Svozil, 1997), pesca 6KRODKXGGLQ HW DO  DJULFXOWXUD 'RNLü DQG -RYLüHQ
2017), entre otras. En todos los trabajos citados se ha encontrado que las ANNs
constituyen un buen apoyo para la toma de decisiones. Parmee (2003), propone el
uso de Redes Neuronales Artificiales en la Ingeniería de construcción para superar la
incertidumbre ocasionada al momento de planificar los costos, debido generalmente
a definiciones erradas. Ante ésta necesidad de mejorar los procesos de toma de
decisión asociados a la construcción de nuevos productos, los modelos de estimación
necesariamente deben entregar mayor exactitud.
Tomando estos antecedentes, se plantea un estudio del ajuste paramétrico que
muestra los cambios en los coeficientes de aceleración en la actualización de la
posición de las partículas en PSO, resolviendo un problema de estimación de costos,
mediante una Red Neuronal Artificial (ANN) con aprendizaje PSO. La investigación
está estructurada de la siguiente forma: la Sección 2 se describe la Metodología a
utilizar, en la Sección 3 se presentan los Resultados y Discusión, y en la Sección 4 se
muestran las Conclusiones.
Desarrollo
Metodología
Es importante que en las aplicaciones en el ámbito de la vida artificial se respeten
cinco principios básicos para PSO sobre la inteligencia de grupo (Kennedy y Eberhart,
1995), (Millonas, 1994), los cuales son: proximidad, calidad, diversidad de respuesta,
estabilidad y adaptabilidad.
En la formulación de PSO se define la velocidad de partícula como el único operador
disponible para controlar la evolución de la optimización. Se considera una población
de I partículas donde cada partícula del enjambre se identifica con dos variables de
estado inicializadas aleatoriamente dentro del espacio N-dimensional que establece
el problema a optimizar: un vector velocidad [1] y un vector de posición [2] que
corresponde a una solución potencial al problema de optimización:
ܸ
݅
= ܸ
݅1
, ܸ
݅2
, , ܸ
݅݊
[1]
ܺ
݅
= ܺ
݅1
, ܺ
݅2
, … , ܺ
݅݊
[2]
ܺ
݊
א
(
ܺ
݊
,
,
ܺ
݊
,
݉ܽݔ
) [3]
Los límites de los parámetros a optimizar [3] conforman en su conjunto el espacio
de búsqueda al cual debe restringirse el movimiento del enjambre.
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
98
Adicionalmente cada partícula mantiene en memoria información de la posición
espacial asociada con la mejor solución históricamente visitada por ésta [4] y también
conoce la posición de la mejor partícula o solución encontrada por todos sus
semejantes [5]. El movimiento del enjambre se realiza en pasos temporales, que se
traducen a nivel de algoritmo en iteraciones contiguas.
ܲ
݅
= ݌
݅1
, ݌
݅2
, … , ݌
݅݊
[4]
ܩ = ݃
1
, ݃
2
, … , ݃
݊
[5]
En cada iteración del método, k, cada una de las partículas de la población recorre el
espacio de soluciones con una velocidad V
i
hacia nuevas posiciones X
i
, de acuerdo
con su propia experiencia P
i
y con la experiencia aportada por el mejor de sus vecinos,
G. En las primeras versiones del algoritmo (Kennedy y Eberhart, 1995) ésta
formulación se reduce a las ecuaciones mostradas a continuación [2.1] y [2.2].
(
݇ + 1
)
= ݒ
݅
(
݇
)
+ ܿ
1
ݎ
1
(
݇
)
. (݌
݅݊
(
݇
)
í ݔ
݅݊
(
݇
)
) + ܿ
2
ݎ
2
(
݇
)
. (݃
݊
(
݇
)
í ݔ
݅݊
(
݇
)
) [2.1]
(
݇ + 1
)
= ݔ
݅
(
݇
)
+ ݒ
݅݊
(
݇ + 1
)
. ߂ݐ [2.2]
Entonces, v
in
(k) y x
in
(k) representan, la velocidad y posición en la iteración o instante
de tiempo k de la partícula i en la dimensión n-ésima del espacio de búsqueda. Los
factores c
1
y c
2
son las denominadas constantes de aceleración cognitiva y social, que
determinan en qué medida influyen sobre el movimiento de la partícula su propia
memoria y la cooperación entre individuos, respectivamente. Los términos r
1
(k) y
r
2
(k) son dos números aleatorios uniformemente distribuidos entre 0 y 1, U (0,1),
cuyo objetivo es emular el comportamiento estocástico y un tanto impredecible que
exhibe la población del enjambre. Después de calcular la nueva velocidad de la
partícula i en la dimensión n, la nueva posición x
in
(k+1) se actualiza directamente de
acuerdo con [2.2], donde se asume que la velocidad se aplica durante un cierto
período de tiempo ߂ݐ, típicamente de valor unitario. El proceso descrito se extiende
al espacio N-dimensional, de forma que se van componiendo iterativamente nuevos
vectores de posición X
i
, utilizando, como en cualquier otro método de cómputo
evolutivo una función de fitness para ponderar la calidad de dicha solución parcial,
actualizando los vectores P
i
y G si se detectan resultados mejores.
El movimiento de los agentes sobre el espacio de soluciones y el rendimiento del
algoritmo está condicionado por el grado de contribución de las tres componentes de
la velocidad en [2.1] y que tienen que ver con el comportamiento social como método
de optimización global: hábito o inercia, para considerar la tendencia de la partícula;
memoria, nostalgia o autoaprendizaje para incluir la experiencia de la propia
partícula, y cooperación, conocimiento social, conocimiento de grupo o información
compartida, para reflejar el intercambio de información y el comportamiento social
como grupo (Kennedy, 1997).
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
99
݅ൌͳ
݅ൌͳ
Existen diferentes métricas para evaluar el rendimiento de la ANN, en este trabajo
se calculan la Raíz Cuadrada del Error Cuadrático Medio RMSE [2.3] y el Coeficiente
de Determinación - R
2
[2.5], como se muestra a continuación,
ܴܯܵܧ =
¥
ܯܵܧ [2.3]
ܯܵܧ =
1
ܰ
(
ݔ íݔƸ
)
2
[2.4]
ܰ
݅
=1
݅
݅
ܴ
2
í
ܰ
ݏ
(
ݔ
݅
í
ݔ
݅
)
2
ܰ
ݏ
(
ݔ
݅
í
ݔҧ
݅
)
2
[2.5]
donde ݔ
݅
e
s
el i
s
imo valor
obs
ervado, ݔ
݅
e
s
el i-é
s
imo valor e
s
timado, ݔ e
s
la media
del valor observado, y N es el número de muestras.
Resultados y Discusión
En la aplicación empírica, se realiza la variación de coeficientes de aceleración de
PSO por medio de una ANN feedforward sigmoidal para la estimación de costos de
construcción industrial.
Para este estudio se utilizaron 2253 datos de un fabricante real de elementos de
tubería para transferencia de fluidos en operaciones de minería a gran escala
(Rodríguez y Durán, 2013). La base de datos incluye un conjunto de 6 variables de
entrada y 1 de salida. Las variables significativas fueron identificadas por medio de
un análisis de correlación entre las entradas y las salidas, en este caso son, peso,
tipo de soldadura y diámetro.
El conjunto de datos se divide en dos partes: un conjunto de datos de entrenamiento
(con el 75%) y un conjunto de datos de prueba con el restante 25%. El éxito del
algoritmo, radica en su capacidad de ajustar las posiciones de las partículas en un
área del espacio de soluciones prometedora, de acuerdo a una función objetivo que
se desea minimizar, en este caso el Error Cuadrático Medio (MSE).
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
100
En la Fig. 1 se muestran los resultados del desempeño de una ANN (3,5,1), de la
función de costo Error Cuadrático Medio (Mean Squared Error, MSE), y coeficientes
de aceleración, c
1
=0.05, c
2
=0.05. A partir de la figura, se observa que con más de
200 repeticiones el algoritmo converge en el mínimo. En la Fig. 2 se han variado los
coeficientes a c
1
=0.2, c
2
=0.2, como resultado se observa que el algoritmo logra el
mínimo con alrededor de 400 repeticiones. Mientras que en la Fig. 3, se ilustran los
resultados con
los parámetros c
1
=0.5, c
2
=0.5, la función converge en más de 300
iteraciones. En la Fig.
4, se presentan los resultados con los parámetros c
1
=0.95,
c
2
=0.05, la función converge en 400 iteraciones, al igual que en la Fig. 5, la que usa
c
1
=0.05, c
2
=0.95. En la Fig. 6 se presentan los resultados con los parámetros
c
1
=0.95, c
2
=0.95, la función converge en menos de 400 iteraciones.
Todos los resultados de las métricas aplicadas para evaluar la exactitud de la
estimación se muestran en la Tabla 1. A partir de los resultados se puede observar
que valores muy pequeños de c
1
y c
2
(cercanos a cero) obtienen baja exactitud en la
estimación de costos de fabricación de tubería, en tanto que la mejor exactitud es
lograda por medio de una ANN cuyos coeficientes de aceleración son mayores o
iguales a 0.5. Los resultados presentados en las tablas guardan relación con las
aseveraciones de Duarte y Quiroga (2010), quienes determinan que los dos
coeficientes de aceleración cercanos a cero producirán una búsqueda fina en una
región, mientras coeficientes cercanos a uno permitirán a la partícula la posibilidad
de sobrepasar al ܩ
ܾ݁ݏݐ
y al ܲ
ܾ݁ݏݐ
, resultando en una búsqueda amplia.
Gráfico 1. ANN (3,5,1), Fitness MSE, c
1
=0.05, c
2
=0.05
Fuente: (Bodero y Leguizamón, 2018)
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
101
Gráfico 2. ANN (3,5,1), Fitness MSE, c
1
=0.2,
c
2
=0.2
Fuente: (Bodero y Leguizamón, 2018)
Gráfico 3. ANN (3,5,1), Fitness MSE, c
1
=0.5,
c
2
=0.5
Fuente: (Bodero y Leguizamón, 2018)
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
102
Gráfico 4. ANN (3,5,1), Fitness MSE, c
1
=0.05, c
2
=0.95
Fuente: (Bodero y Leguizamón, 2018)
Gráfico 5. ANN (3,5,1), Fitness MSE, c
1
=0.95, c
2
=0.05
Fuente: (Bodero y Leguizamón, 2018)
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
103
Gráfico 6. ANN (3,5,1), Fitness MSE, c
1
=0.95, c
2
=0. 95
Fuente: (Bodero y Leguizamón, 2018
Tabla 1: Resultados de la exactitud en la estimación, para los coeficientes
de aceleración c
1
y c
2
Fuente: Barba y Bodero (2017)
**los valores obtenidos en las métricas RMSE R
2
en el presente experimento, no
difieren en mayor medida de los obtenidos por medio de un modelo neuronal más
complejo, una ANN recurrente aplicada por Barba y Bodero (2017), para analizar los
mismos datos.
Conclusiones
Al finalizar la investigación, se muestran las siguientes conclusiones:
En el modelo del algoritmo PSO el ajuste paramétrico de los coeficientes de
aceleración c
1
y c
2
son variaciones consideradas importantes:
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
104
Las partículas serán independientes cuando c
1
> 0 y c
2
= 0, y colectivas con
c
1
= 0
y c
2
> 0.
Las partículas serán atraídas por un valor promedio si c
1
= c
2
> 0.
La experiencia propia es mayor que la del grupo si c
1
> c
2
y la experiencia del
grupo es mayor que la propia con c
1
< c
2
.
Si c
1
y c
2
disminuyen, las trayectorias de desplazamiento de las partículas son
suaves.
Si c
1
y c
2
aumentan, entonces los movimientos de las partículas serán
abruptos.
Un mal ajuste de los parámetros puede provocar que el PSO converja a una solución
en pocas iteraciones, o a una buena solución en muchas iteraciones. A menudo, PSO
puede encontrar una mala solución en pocas iteraciones, conocida como
convergencia prematura, o una mala solución en muchas iteraciones.
La capacidad de ajustar las posiciones de las partículas en un espacio de soluciones
satisfactoria, tomando en cuenta la función objetivo a minimizar (Error Cuadrático
Medio - MSE) garantizó el éxito del algoritmo del experimento. Para valores muy
pequeños de c
1
y c
2
(cercanos a cero) se obtiene una baja exactitud en la estimación
de costos de fabricación de tubería. Una ANN ofrece mayor exactitud con coeficientes
de aceleración mayores o iguales a 0.5, como lo indican en su estudio Duarte y
Quiroga (2010).
Los resultados alcanzados en las métricas RMSE R
2
en este experimento utilizando
una ANN tipo feedforward sigmoidal con aprendizaje PSO no difieren
significativamente de los obtenidos por medio de una ANN recurrente aplicada por
Barba y Bodero (2017), para analizar los mismos datos.
Referencias bibliográficas
Barba, L., Rodríguez, N. (2015). Traffic Accidents Forecasting using Singular Value
Decomposition and an Autoregressive Neural Network Based on PSO. Cielo, 33
38.
Barba, L., Bodero, E. (2017). Redes Neuronales Artificiales para Estimación de Costos
de Construcción Industrial. V Congreso Internacional de
Investigación y Actualización en Ingenierías, Galápagos (Ecuador), 269-278.
Bodero, E., Leguizamón G. (2018). Efecto de los coeficientes de aceleración de PSO
en el desempeño de una Red Neuronal Artificial aplicada a la Estimación de
Costos, Revista Facultad de Ingeniería Universidad Nacional de Chimborazo,
NovaSinergia, Vol. 1, 33-40.
Carlisle, A., Dozier, G. (2001). “An off-the-self PSO, Proceedings of the Workshop
on Particle Swarm Optimization, Indianapolis (USA), pp. 1-6.
&KDQJ5/X&1³)HHGHU UHFRQILJXUDWLRQ IRUORDGIDFWRULPSURYHPHQW´
Proceedings of the IEEE Power Engineering Society Winter Meeting, New York
(USA), Vol. 2, pp. 980-984.
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
105
'RNLü$-RYLü6(YDOXDWLRQRIagriculture and industry effect on economic
health by ANFIS approach, Physica A: Statistical Mechanics and its Applications,
Volume 479, 2017, Pages 396-399.
Duarte, C., Quiroga, J. (2010). "Algoritmo PSO para identificación de parámetros en
un motor DC." Revista Facultad de Ingeniería Universidad de Antioquia 55.
Eberhart, R., Hu, X. (1999). Human tremor analysis using particle swarm
RSWLPL]DWLRQ´Proceedings of the 1999 Congress on Evolutionary Computation-
CEC99, Washington (USA), Vol. 3, pp. 1927-1930.
(EHUKDUW 5 6KL <  ³3DUWLFOH VZDUP RSWLPL]DWLRQ GHYHORSPHQWV
DSSOLFDWLRQVDQGUHVRXUFHV´Proceedings of the 2001 Congress on Evolutionary
Computation, Seoul (South Korea), Vol. 1, pp. 81-86.
)UDQNHQ1(QJHOEUHFKW$3³362DSSURDFKHVWRFR-HYROYH,3'VWUDWHJLHV´
Proceedings of the 2004 IEEE Congress on Evolutionary Computation, Oregon
(USA), pp. 356-363.
Gaing, Z-/  ³'LVFUHWH SDUWLFOH VZDUP RSWLPL]DWLRQ DOJRULWKP IRU XQLW
FRPPLWPHQW´Proceedings of the 2003 IEEE Power Engineering Society General
Meeting, Toronto (Canada), Vol. 1, pp. 418-424.
+X; (EHUKDUW 5 ³$GDSWLYHSDUWLFOHVZDUP RSWLPL]DWLRQ GHWHFWLRQ DQG
UHVSRQVH WR G\QDPLF V\VWHPV´ Proceedings of the 2002 Congress on
Evolutionary Computation-CEC02, Honolulu (USA), Vol. 2, pp.1666-1670.
+X;(EHUKDUW56KL<³(QJLQHHULQJRSWLPL]DWLRQZLWKSDUWLFOHVZDUP´
Proceedings of the 2003 IEEE Swarm Intelligence Symposium, Indianapolis
(USA), pp. 53-57.
,VPDLO $ (QJHOEUHFKW $  ³*OREDO RSWLPL]DWLRQ DOJRULWKPV IRU WUDLQLQJ
SURGXFW XQLW QHXUDO QHWZRUNV´ Proceedings of IEEE-INNS-ENNS International
Joint Conference on Neural Networks, Como (Italy), Vol. 1, pp. 132-137.
.HQQHG\ -  ³7KH SDUWLFOH VZDUP VRFLDO DGDSWDWLRQ RI NQRZOHGJH´
Proceedings of the 1997 IEEE International Conference on Evolutionary
Computation-ICEC97, Indianapolis (USA), pp. 303-308.
Kennedy, J., Eberhart, R. (1995). ³3DUWLFOH swarm RSWLPL]DWLRQ´ Proceedings of the
IEEE International Conference on Neural Networks-ICNN’95, Perth (Australia),
Vol.4, pp. 1942-1948.
Kennedy, J., Eberhart, R. (2001). “Swarm intelligence´ 0RUJDQ .DXIPDQQ
Publishers, San Francisco.
Koay, C.A., Srinivasan, D. (2003). ³3DUWLFOHVZDUPRSWLPL]DWLRQ-based approach for
JHQHUDWRU PDLQWHQDQFH VFKHGXOLQJ´ Proceedings of the 2003 IEEE Swarm
Intelligence Symposium, Indianapolis (USA), pp. 167-173.
Laskari, E., Parsopoulos, K., Vrahatis, M. (2002). ³3DUWLFOHVZDUP RSWLPL]DWLRQ Ior
PLQLPD[ SUREOHPV´ Proceedings of the 2002 Congress on Evolutionary
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Bodero, Villacrés, Ricaurte, Paredes, Chiriboga. Ajuste paramétrico C1 y
C2 en el desempeño del algoritmo de optimización de partículas - pso
106
Computation-CEC02, Honolulu (USA), Vol. 2, pp. 1576-1581.
Lu, Z-6<DQ 6 ³0XOWLXVHUGHWHFWRU EDVHG RQSDUWLFOH VZDUP DOJRULWKP´
Proceedings of the IEEE 6th CAS Symposium on Emerging Technologies: Frontiers
of Mobile and Wireless Communication, Shanghai (China), pp. 783-786.
0LOORQDV 00  ³6ZDUPV SKDVH WUDQVLWLRQV DQG FROOHFWLYH LQWHOOLJHQFH´
Proceedings of Artificial life III, Vol. XVII, SFI Studies in the Sciences of
Complexity, Addison-Wesley.
0LUDQGD9)RQVHFD1³(362 Evolutionary particle swarm optimization,
DQHZDOJRULWKPZLWKDSSOLFDWLRQVLQSRZHUV\VWHPV´,(((3(67UDQVPLVVLRQDQG
Distribution Conference and Exhibition, Porto Alegre (Brazil), Vol. 2, pp. 745-750.
Naka, S., Genji, T., Yura, T., Fukuyama, Y. (2001). ³3UDFWLFDO GLVWULEXWLRQ VWDWH
HVWLPDWLRQXVLQJK\EULGSDUWLFOHVZDUPRSWLPL]DWLRQ´Proceedings of 2001 Winter
Meeting of the IEEE Power Engineering Society, Columbus (USA), Vol. 2, pp. 815-
820.
Naka, S., Genji, T., Yura, T., Fukuyama, Y. (2003). ³$ K\EULG SDUWLFOH VZDUP
optimization for distribution state HVWLPDWLRQ´ IEEE Transactions on Power
Systems, Vol. 18, No. 1, pp. 60-68.
Parmee, I. C. (2003). Computational intelligence and civil engineer- ing-perceived
problems and possible solutions, in Towards a Vision for Information Technology
in Civil Engineering, I. Flood, Ed., ASCE, Nashville, Tenn, USA.
Rodriguez, N., Duran, O. (2013). Reduced Multivariate Polynomial Model for
Manufacturing Costs Estimation of Piping Elements, Hindawi Publishing
Corporation Mathematical Problems in Engineering, Vol. 2013.
Sholahuddin, A. Ramadhan. A. Supriatna, A. (2015). The Application of ANN-Linear
Perceptron in the Development of DSS for a Fishery Industry, Procedia Computer
Science, Volume 72, 2015, Pages 67-77.
Srinivasan, D., Loo, W., Cheu, E. (2003). ³7UDIILF incident detection using particle
VZDUP RSWLPL]DWLRQ´ Proceedings of the 2003 IEEE Swarm Intelligence
Symposium, Indianapolis (USA), pp. 144-151.
Svozil, D. Kvasnicka, V., & Pospichal. J. (1997). Introduction to multi-layer feed-
forward neural networks, Chemometrics and Intelligent Laboratory Systems,
Volume 39, Issue 1, 1997, Pages 43-62.
Tasgetiren, M.F., Liang, Y-C. ³$ELQDU\SDUWLFOHVZDUPRSWLPL]DWLRQDOJRULWKP
IRUORWVL]LQJSUREOHP´Journal of Economic and Social Research, Vol. 5, No. 2,
pp. 1-20.
Veeramachaneni, K., Osadciw, L.A. (2004)1. ³2SWLPDOVFKHGXOLQJLQVHQVRUQHWZRUNV
XVLQJ VZDUP LQWHOOLJHQFH´ Proceedings of the Conference on Information
Sciences and System, Princeton University, New Jersey (USA).
Veeramachaneni, K., Osadciw, L.A. (2004)2. “Dynamic sensor management using
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734
Revista Científica Ciencia y Tecnología. Vol 19 No 22, 2019 / págs. 94 - 107
107
multi objective particle swam RSWLPL]HU´ Proceedings of the SPIE, Vol. 5434,
Multisensor, Multisource Information Fusion: Architecture, Algorithms, and
Applications 2004, pp. 205-216.
Vesterstrom, J., Riget, J. (2002). ³3DUWLFOH swarms: Extensions for improved local,
multi- modal, and dynamic search in numerical RSWLPL]DWLRQ´0DVWHU¶V7KHVLV
University of Aarhus.
:DQJ = 'XUVW * (EHUKDUW 5 %R\G ' 0LOHG =  ³3DUWLFOH VZDUP
RSWLPL]DWLRQDQGQHXUDOQHWZRUNDSSOLFDWLRQIRU46$5´Proceedings of the 18th
International Parallel and Distributed Processing Symposium ,3'36¶ 1HZ
Mexico, (USA).
Yangyang, Z., Chunlin, J.I., Ping, Y., Manlin, L.I., Chaojin, W., Guangxing, W. (2004).
³3DUWLFOH VZDUP RSWLPL]DWLRQ IRU EDVH VWDWLRQ SODFHPHQW LQ PRELOH
FRPPXQLFDWLRQ´ Proceedings of the 2004 IEEE International Conference on
Networking, Sensing & Control, Taipei (Taiwan), pp. 428-432.
=KDR<=KHQJ-³3DUWLFOHVZDUPRSWLPL]DWLRQDOJRULWKPLQVLJQDOGHWHFWLRQ
DQGEOLQGH[WUDFWLRQ´Proceedings of the 7th International Symposium on Parallel
Architectures, Hong Kong (China), pp. 37-41.
&
Revista Ciencia & Tecnología
ISSN impreso: 1390 - 6321
No. 22, 30 de abril de 2019
&
Revista Ciencia & Tecnología
No. 22, 30 de abril de 2019
ISSN impreso: 1390 - 6321I
ISSN online: 2661 - 6734