JARCA 2014 - Universidad de Sevilla

 JARCA 2014 Actas de las XVI Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental Cádiz 22-­‐28 de junio de 2014 Alejandro Fernández-­‐Montes Juan Antonio Álvarez Juan Antonio Ortega XVI Jornadas de ARCA
XVI Jornadas de ARCA
XVI Jornadas de ARCA
i
Actas de las XVI Jornadas de ARCA
Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia
Ambiental
Proceedings of the XVI ARCA Days
Qualitative Systems and its Applications in Diagnose, Robotics and Ambient
Intelligence
Editado por / Edited by
Alejandro Fernández-Montes
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
Juan Antonio Álvarez
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
y / and
Juan Antonio Ortega
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
ii Actas de las XVI Jornadas de ARCA. Sistemas Cualitativos y sus Aplicaciones en
Diagnosis, Robótica e Inteligencia Ambiental / Alejandro Fernández-Montes, Juan
Antonio Álvarez, Juan Antonio Ortega.
ISBN: 978-84-606-6085-9
I.
II.
III.
Alejandro Fernández-Montes
Juan Antonio Álvarez
Juan Antonio Ortega.
Edita:
© Derechos de autor
De los textos: los autores correspondientes
De las ilustraciones: los autores correspondientes
De esta edición: Alejandro Fernández-Montes, Juan Antonio Álvarez, Juan Antonio
Ortega.
Junio 2014.
ISBN: 978-84-606-6085-9
No está permitida la reproducción total o parcial de este libro, ni su transmisión de
ninguna forma o por cualquier medio, ya sea electrónico, por registro u otros métodos
sin el permiso previo y por escrito de los titulares del copyright.
iii
Director de las Jornadas
Juan Antonio Ortega, Universidad de Sevilla
Comité Organizador
Alejandro Fernández-Montes, Universidad de Sevilla
Juan Antonio Álvarez, Universidad de Sevilla
Comité de programa
Núria Agell, Universidad Ramon Llull
Cecilio Angulo, Universitat Politécnica de Catalunya
Joaquim Armengol, Universitat de Girona
Andreu Català, Universitat Politécnica de Catalunya
Zoe Falomir, Universität Bremen
Alejandro Fernández-Montes, Universidad de Sevilla
Luis González, Universidad de Sevilla
Natividad Martínez, Reutlingen University
Quim Meléndez, Universitat de Girona
Lledó Museros, Universitat Jaume I
Juan Antonio Ortega, Universidad de Sevilla
Francisco Ruiz, Universitat Politécnica de Catalunya
Ismael Sanz, Universitat Jaume I
Ralf Seepold, Universität Konstanz
Miguel Toro, Universidad de Sevilla
Jesús Torres, Universidad de Sevilla
Josep Vehí, Universitat de Girona
Francisco Velasco, Universidad de Sevilla
Juan Antonio Álvarez García, Universidad de Sevilla
XVI Jornadas de ARCA
iv
Preface
This volume contains the papers presented at JARCA 2014: XVI Jornadas de ARCA
Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia
Ambiental held on June 22-28, 2014 in Cadiz.
There were 20 accepted papers. Each submission was reviewed by at least 3, and on the
average 2.2, program committee members.
This proceedings are partially supported by the projects of the Spanish Ministry of
Economy and Competitiveness HERMES (TIN2013-46801-C4-1-R) and Simon(TIC8052) of the Andalusian Regional Ministry of Economy, Innovation and Science and
with the cooperation of Fidetia (Fundación para la Investigación y el Desarrollo de las
Tecnologías de la Información en Andalucía).
Easychair was used to manage paper submissions, reviewing and generating the
proceedings.
Cádiz, junio de 2014
Alejandro Fernández-Montes
Juan Antonio Álvarez
Juan Antonio Ortega
Ediciones Anteriores
Sevilla 1998
Sevilla 2000
Valladolid 2001
Vilanova i la Geltrú 2002
Lanzarote 2003
Menorca 2004
Benalmádena 2005
Peñíscola y Castellón de la Plana 2006
Girona 2007
Tenerife 2008
Granada 2009
Mallorca 2010
Huelva 2011
Salou 2012
Murcia 2013
v
XVI Jornadas de ARCA
vi
XVI Jornadas de ARCA
Index
Generaci´
on de dataset flexible para de reconocimiento de actividades y ca´ıdas . . . . . . . . . . . .
´
´
´
Juan Antonio Alvarez-Garc´
ıa, Luis Miguel Soria Morillo and Miguel Angel
Alvarez
de
La Concepci´
on
1
La Nube y su Papel como Plataforma de Distribuci´on de Contenidos de TV . . . . . . . . . . . . . .
Iv´
an Bernab´e-S´
anchez, Daniel D´ıaz-S´
anchez and Mario Mu˜
noz-Organero
5
Los Sistemas Sanitarios Auton´
omicos de Espa˜
na: Un estudio de la eficiencia operacional,
eficiencia sanitaria y eficiencia unificada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Mar´ıa Soledad Campos Lucena, M Teresa Sanz D´ıaz, Francisco Velasco Morente and
Roc´ıo Y˜
niguez Ovando
Un an´
alisis de la eficiencia de la UE 27 a trav´es de la huella de carbono con DEA. . . . . . . . . 47
Mar´ıa Soledad Campos Lucena, M Teresa Sanz D´ıaz, Francisco Velasco Morente and
Roc´ıo Y˜
niguez Ovando
Eco-driving: Energy Saving based on driver behavior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
V´ıctor Corcoba Maga˜
na and Mario Mu˜
noz-Organero
La formaci´
on a trav´es de dispositivos m´oviles. Dise˜
no y evaluaci´on de contenidos y
actividades formativas a trav´es de m-learning. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
´
Alfonso Cueto, Luis Miguel Soria Morillo and Juan Antonio Alvarez-Garc´
ıa
Towards a Fuzzy Colour Model Sensitive to the Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Zoe Falomir, Vivien Mast, Daniel Vale, Lled´
o Museros and Luis Gonz´
alez-Abril
Es eficiente apagar m´
aquinas en un centro de datos?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Dami´
an Fern´
andez, Alejandro Fern´
andez-Montes, Luis Gonz´
alez-Abril and Juan
Antonio Ortega
Introducci´
on de una nueva caracteristica en el modelo Qualitative Shape . . . . . . . . . . . . . . . . . 69
Luis Gonz´
alez-Abril, Lled´
o Museros, Zoe Falomir and Ismael Sanz
Conectando el Robot AIBO a ROS: Extracci´on de im´agenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Luc´ıa Lillo-Fantova, Ricardo A. T´ellez, Manel Velasco and Cecilio Angulo
Qualitative Simulation of a Sentiment Analysis Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Ismael Sanz, Lled´
o Museros and Luis Gonz´
alez-Abril
Sincronizaci´
on de Robots Aibo. Un Estudio Comparativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Diego Mu˜
noz, Manel Velasco and Cecilio Angulo
Ideas para la aplicaci´
on de la optimizaci´on por colonia de hormigas al desarrollo
sostenible y eficiencia energ´etica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Jos´e Manuel M´
arquez V´
azquez, Juan Antonio Ortega, Luis Gonz´
alez-Abril and
Francisco Velasco Morente
Creativity Support System for cake design. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Francisco J. Ruiz, Crist´
obal Raya, Albert Sam`
a and Nuria Agell
Equilibrio del Robot Aibo usando DMPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Llu´ıs Salord, Cecilio Angulo and Manel Velasco
vii
XVI Jornadas de ARCA
Brain-physical activity mapping using low cost EEG sensors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
´
Luis Miguel Soria Morillo, Juan Antonio Alvarez-Garc´
ıa, Ismael Cuadrado-Cordero
and Juan Antonio Ortega
Mejorando la interoperabilidad en la Smart City: generaci´on autom´atica de servicios web . 115
Jos´e Ignacio S´
anchez Venzal´
a, Alejandro Fern´
andez-Montes and Juan Antonio Ortega
A multidimensional perspective to recommend experts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Germ´
an S´
anchez-Hern´
andez and Nuria Agell
Incorporating biomedical knowledge into m-Health applications: An example
public-private partnership . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Josep Vehi and Remei Calm
Using an improved rule match algorithm for the detection of broken driving rules in an
energy-efficient and safety relevant driving system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Emre Yay, Natividad Mart´ınez Madrid and Juan Antonio Ortega
viii
XVI Jornadas de ARCA
ix
XVI Jornadas de ARCA
x
1
Generación de dataset flexible para de reconocimiento de actividades y
caídas
Juan A. Álvarez-García, Luis M. Soria Morillo, Miguel Á. Álvarez de la Concepción
University of Seville
Computer Languages and Systems Dept.
Avenida Reina Mercedes S/N, 41012
{jaalvarez, lsoria, maalvarez}@us.es
Abstract
El reconocimiento de actividades (RA) y la detección de caídas (DC) son áreas de investigación que
evolucionan de manera aislada en vez de en conjunto. La evaluación del software que lo permite
depende tanto del hardware utilizado como del tipo
de caídas y actividades evaluadas provocando múltiples datasets heterogéneos. Además en DC el
problema se agrava por no existir datasets de caídas reales, no simuladas, públicos. En este trabajo
se plantea una herramienta para recuperar datos y
generar un dataset abierto a la comunidad tanto para su acceso como para la inserción de nuevos datos.
1 Introduction
Las tendencias demográficas en nuestra sociedad están
llevando al envejecimiento de la población tanto en los
países desarrollados como en los del tercer mundo y en vías
de desarrollo. Según la UNFPA [5] aunque actualmente sólo
Japón tiene una proporción de mayores de 65 años superior
al 30%, en 2050 habrá 64 países que lo acompañen. Eso ha
supuesto que se fomenten programas de investigación orientados a las tecnologías de la información para el mejorar la
calidad de vida y permitir la vida independiente de mayores
y personas con algún tipo de discapacidad [1].
Para conseguir ese objetivo existen dos áreas importantes, el
reconocimiento de actividades (RA) y la detección de caídas
(DC).
El RA tiene como objetivo reconocer actividades humanas
que pueden ser básicas (tumbado, sentado, de pié, etc.) o
complejas (viendo la televisión, cocinando, duchándose,
etc.). Recuperar la secuencia de actividades realizadas así
como el tiempo dedicado a cada una de ellas permitiría
ofrecer a personas mayores que viven solas ayuda robótica,
informes detallados a familiares o doctores sobre ejercicios
de rehabilitación o prevención o consejos personales para
llegar a objetivos saludables físicos (cierto número de pasos
al día) o de organización (debes ver algo menos la televisión
o recuerda ir a comprar al supermercado).
La DC puede definirse como una tecnología asistencial cuyo
objetivo es el de alertar cuando ocurre una caída. En un
escenario real puede mitigar sus consecuencias. Tiene un
impacto directo sobre el miedo a las caídas ya que permite
una rápida asistencia. Los individuos que caen desarrollan
un temor además de una reducción de la actividad física,
depresiones y reducción de la actividad social y todo esto
puede incrementar a su vez el riesgo de que se produzcan
más caídas [6]. A pesar de que las caídas son un gran problema en la salud pública y que el número de sistemas de
DC ha aumentado mucho, según la organización mundial de
la salud [8] el número de caídas se incrementa año tras año.
Si no se toman medidas el número de lesiones provocadas
por caídas se proyectan a un 100% mayor en 2030. En este
contexto los dispositivos asistenciales son una necesidad
social y están siendo investigados de manera activa.
El resto del artículo se organiza de la siguiente manera: la
Sección 2 muestra como los sistemas de RA están siendo
evaluados y comparados entre sí, la Sección 3 hace lo propio con los sistemas DC. La herramienta propuesta para
generar un dataset flexible y mantenido por la comunidad
científica se presenta en la Sección 4 y en el último apartado
se indican las conclusiones.
2
Evaluación de RA
El RA utilizando sensores vestibles [9] permite la monitorización de ejercicios y actividades o incluso la detección de
comportamiento anómalo.
Desde el punto de vista de datasets, el RA es un área madura, existen múltiples datasets en el repositorio de UCI. Sin
embargo, la variabilidad en el uso de hardware y sobre todo
en la posición de los sensores hace que no todos los datasets
sean válidos para todos los sistemas propuestos y la comparación entre diferentes sistemas no sea posible. Existen dos
líneas para intentar solventarlo:
• Competiciones basadas en software con un elevado
número de sensores tal y como se hizo en
OPPORTUNITY [10]. Aún con esa cantidad de
hardware, no todos los sistemas utilizan ese mismo
hardware con lo que lo que se pueden validar son los
algoritmos pero no los sistemas completos.
•
Competiciones basadas en software y hardware, de tipo presencial donde lo fundamental es el objetivo final. Estas competiciones como EvAAL (Evaluating
AAL Systems through Competitive Benchmarking)
2
[2]. Aunque los sistemas pueden compararse, es difícil conseguir un número elevado de competidores por
los costes que acarrea el desplazamiento de personas y
hardware.
3 Evaluación de DC
En el área de DC los datasets son un problema importante
ya que no existen datasets públicos con información de
caídas reales. Aún así aquellos que contienen caídas simuladas también escasean. Según Schwickert et al. [7] de los 96
estudios que analizan desde 1998 a 2012, sólo 6 incorporan
caídas reales.
Las cuestiones de privacidad y el análisis de la DC desde un
punto de vista biomédico provocan esta falta de datasets.
Además según el trabajo de Bagalà et al. [3] los algoritmos
publicados que son testados con caídas simuladas tienen una
sensibilidad y especificidad mucho mejores que cuando se
hacen con caídas reales.
4 Herramienta propuesta
Las dificultades que suponen acceder a un grupo de alto
riesgo de caídas, informar desde un punto de vista médico
de los resultados (protocolo admitido por un comité ético
manteniendo la privacidad del paciente y que este firme un
consentimiento informado) y conseguir un dataset con un
número elevado de caídas nos llevó a plantear un dataset de
RA y DC, abierto a la comunidad y mantenido por la misma. Para ello tenemos un trabajo en progreso en el que estamos diseñando una herramienta que permite la recuperación de información de los sensores inerciales de dispositivos móviles Android (giroscopio, acelerómetro, magnetómetro) con la restricción de que estos dispositivos tengan
conexión bluetooth. Estos móviles servirán de sensores
vestibles y enviarán toda la información a otro móvil que
sincronizará tramas de ambos y subirá la información al
dataset. Además estamos considerando la posibilidad de
incluir vídeo de grabación que permita el etiquetado posterior de las actividades o tipos de caídas que se hayan producido, aunque esto supondrá seguramente problemas de privacidad. La Figura 1 muestra de forma esquemática el proceso.
Ese proceso permitirá que diferentes investigadores puedan
seguir un proceso sencillo y fácilmente replicable de sus
experiencias para incorporar los datos al dataset. Además la
interfaz Web permitirá que los investigadores seleccionen
las restricciones que se deseen con respecto a la posición de
los sensores o la frecuencia de muestreo para testar sus
algoritmos antes de implementar el sistema hardware completo. Un ejemplo puede ser la descarga de un dataset personalizado con datos de sensores en la rodilla y la cabeza
con una frecuencia de muestreo de 20 Hertzios.
Ilustración 1: Esquema de la herramienta de recuperación de datos y subida al dataset
5
Conclusiones
Las dificultades que suponen la evaluación combinada de
RA y DC nos hizo plantearnos una herramienta que permitiese generar un dataset que pudiese ser mantenido por la
comunidad científica. Las mayores dificultades para tener
éxito son la sencillez de uso de una herramienta que permitiese subir la información a un repositorio Web y las restricciones de hardware. Para solventar la primera se ha desarrollado un prototipo que estamos probando actualmente, el
segundo obstáculo lo intentamos superar incluyendo como
hardware los dispositivos más vendidos de la electrónica de
consumo, móviles con sistema operativo Android.
Una vez la fase de test de la herramienta se supere nos encontraremos con otras dificultades como el etiquetado semiautomático de las actividades y caídas para mejorar la usabilidad de la herramienta, la posibilidad de incluir un vídeo de
la persona monitorizada y la preparación de un consentimiento informado en la aplicación para aquellos investigadores y personas que participen.
Agradecimientos
Este trabajo ha sido parcialmente financiado por el proyecto
de Excelencia de la Junta de Andalucía SIMON (TIC-8052)
y por el proyecto del Ministerio HERMES (TIN201346801-C)
Referencias
1.
2.
3.
AAL Joint Programme. Catalogue for Projects 2013. Retrieved
May 4, 2014, from AAL-Europe: http://www.aal-europe.eu/wpcontent/uploads/2013/09/AALCatalogue2013_Final.pdf
Álvarez-García, J. A., Barsocchi, P., Chessa, S., & Salvi, D.
(2013). Evaluation of localization and activity recognition systems for ambient assisted living: The experience of the 2012
EvAAL competition. Journal of Ambient Intelligence and Smart
Environments, 5(1), 119-132.
Bagalà F, Becker C, Cappello A, Chiari L, Aminian K, et al.
(2012) Evaluation of Accelerometer-Based Fall Detection Algorithms on Real-World Falls. PLoS ONE 7(5): e37062.
doi:10.1371/journal.pone.0037062
3
4.
Bourke, A. K., Van de Ven, P., Gamble, M., O’Connor, R.,
Murphy, K., Bogan, E., ... & Nelson, J. (2010). Evaluation of
waist-mounted tri-axial accelerometer based fall-detection algorithms during scripted and continuous unscripted activities.
Journal of biomechanics, 43(15), 3051-3057.
5. United Nations Population Fund and Help Age International.
(2012). Ageing in the twenty-first century: a celebration and a
challenge.
6. Legters, K. (2002). Fear of falling. Physical therapy, 82(3), 264272.
7. Schwickert, L., Becker, C., Lindemann, U., Maréchal, C.,
Bourke, A., Chiari, L., ... & Klenk, J. (2013). Fall detection with
body-worn sensors. Zeitschrift für Gerontologie und Geriatrie,
46(8), 706-719.
8. World Health Organization. Ageing, & Life Course Unit. (2008).
WHO global report on falls prevention in older age. World
Health Organization.
9. Lara, O. D., & Labrador, M. A. (2013). A survey on human activity recognition using wearable sensors. Communications Surveys & Tutorials, IEEE, 15(3), 1192-1209.
10. Roggen, D.; Calatroni, A.; Rossi, M.; Holleczek, T.; Forster, K.;
Troster, G.; Lukowicz, P.; Bannach, D.; Pirkl, G.; Ferscha, A.;
Doppler, J.; Holzmann, C.; Kurz, M.; Holl, G.; Chavarriaga, R.;
Sagha, H.; Bayati, H.; Creatura, M.; del R Millan, J., "Collecting complex activity datasets in highly rich networked sensor
environments," Networked Sensing Systems (INSS), 2010 Seventh International Conference on , vol., no., pp.233,240, 15-18
June 2010
XVI Jornadas de ARCA
4
5
!
0
" #$
% #!
" #$ &
& ' #( )
0
'
$$$ /
"
.
12 34566 ! 7 8 , +/ .9$.- ,% $8
:
;<
1
"#
.
(
$/,
!
"#
$%
!
&
"#
"#
)
'
&
(
'
&
&
(
&
+
- "
!
"#
)
)
"#
+,
!
"#
&
)
"
"#
)
"#
*
+,
.
"#
"#
"# ,
$%
6
(
&
3
"#
&
"#
1
"#
=
>
"#
@
$%
&
(
?
A
)
*
%
%
+
- D
.
)
)
B
&
(
%
7
@
/
$
)
)
%'
$
!
)
,
"#
@
@
/
"# ,
$
&
(
&
+
?4C
,
(
+
3261
A?C
-
&
)
E
!
E
!
!
"#
!
&
E
7
&
J
H% K
3261I
)
H% K
3261I
!
35C
J
%
(
)
!
H
E
0
3263I
H
E
3266I
)
!
"#
# .
0
.
)
/
)
$
0
.
(
&
)
"#
E
.
&
FG
+
HF
-
3263I
"#
$%
"#
"#
0
3261I
HL
.
"#
,
,
HG
3263I
(
#/
"#
H8 3263I
*
)
8
(
#
N"
H!
%
0",
'
'
3263I
(
$%"#
'
,
D
D
"
'
8 E K +''D8-
+,"DH#
K
1
3263I
0
'
0
F
+
&
"#
,
)
&
0
9
"#
'
FG
+,"D
&
HM
&
3266I
(
%
J
&
H7
HM
3263I
3261I
3266I HF
3266I
.
H/
HD
3263I
.
)
"#
!
+
)
- !
)
(
(
!
8
.
G,
8
)
!
9
'
0
(
55C
+,! '
+
F
'
)
,
'
)
.
,!
)
!
)
!
"
OF 9/ , ,/ 9" .9$# 9O
"$83261 =?426 '= 3 9
%
8
$P.P$
/
'
)
(
/
'
+
@
.
+@ . 9-- $9 8 +%" 3263 621? 1A2222- 'J/$88
+$%" 3263 2441 =122229 / .$,, +$%" 3263
2443 =12222$88% '"J
)
@
)
%$
%$
H
E
K
#
2
!
"#
'
,
)
H
3266I #
9 R
S
'
GM,F%,- 3266 $
?1AU?=6
E 3263I #
R
M 9
K
SJ
E
M 9
$%"#
G K
'
E
Q '
K
# 7
#
T
'
+$8@J'J/
3266
# 7
K
#
#
9
$%"#
T
'
,
8 E K +'J/,8 ",- 3263 @
$
'
3263
6U62
HD
3266I R D
J D
D 7
S"#
D
B
E
$
"#
T
/
"
+' /"- 3266 6= $"7 '
3266
6U>
10
H7
HF
HF
HM
HM
H!
3266I M , 7
, 8
' "
D '
% ,
7 ,
K
S '
D
,
%
/
9
T 8
7
/
,
"
+87/ ,"3266 > $
'
3266
65U3=
3263I 8 F
F @
E /
/
K 9 *
K
, 8
S$
"#
T
8 E KD
$
,
+8D ,- 3263 6> $
'
3263
4A1U4A4
3263I M F
S"
@
'
D
T %
$
622
6156U615= 3263
3266I $ M
/ M
7 / K
" /
/ #
S'
,
F
"
T 3266
3263I R M
' FE
% K
* !
S
$%"#
E / 9
T
'
"
+$' '"3263 6= $
'
3263
6655U632=
3263I M F !
. F M
7 " D K
SG
#
$%"#T 3263
H/
3261I # /
. ,
D
+$'' D
"
$
125
H8 3263I G 8
, / K
/ L D
. ,
S'
E K
T
'
VV
- 3261 $'' D
3261 $
'
3261
12AU
Q %
S'
T
'
3263
H% K
'
D
3263 $
$
'
,
1A3U1A>
3261I 9 % K
, !
. 7
S,
'
'
"
$
B ,
T $
'
'
,
8 E K
"
3261
H# K
3263I / # K
8 "
" /
# /
S
="#B
."#
T
'
+$'' - 3263 $
$
'
3263
=1AU=14
HG 3263I * G L L
' G L !
@ '
!
S'
/ #B '
/
,
"# T
3263
HL
7 J
3261I / L
S'
F "#
$ "
/
$
E K
T
D
,
D
+D/,D3261
/
3261 $
6U?
,
$
11
LOS SISTEMAS SANITARIOS AUTONÓMICOS DE ESPAÑA: UN ESTUDIO
DE LA EFICIENCIA OPERACIONAL, EFICIENCIA SANITARIA Y
EFICIENCIA UNIFICADA
Campos Lucena, María Soledad
Departamento de Contabilidad y Economía Financiera
[email protected]
Sanz Díaz, Mª Teresa
Departamento de Análisis Económico y Economía Política
[email protected]
Velasco Morente, Francisco
Departamento de Economía Aplicada I
[email protected]
Yñiguez Ovando, Rocío
Departamento de Análisis Económico y Economía Política
[email protected]
Universidad de Sevilla
RESUMEN
El estudio de la eficiencia en la gestión de los recursos públicos en general y de los
recursos invertidos en sanidad en particular es de sumo interés para el desarrollo de las
políticas económicas de un país en cualquier momento, pero se hace más acuciante en
momentos de crisis como los actuales, donde los recursos son si cabe aún más escasos y
la intervención pública se pone en entredicho. Este trabajo realiza un análisis de la
eficiencia de dicha gestión a través de la técnica DEA y utiliza un enfoque no orientado,
en el que se persigue alcanzar la eficiencia a través del incremento de las variables
consideradas deseables (good) para lo que se utiliza la eficiencia operacional, la
disminución de las variables no deseables (bad) para lo que se utiliza la eficiencia
sanitaria y pone en relación ambas eficiencias a través de la llamada eficiencia unificada
que plantea la existencia de dos fronteras hacia donde deben tender las unidades
ineficientes. La aportación fundamental que se hace con este trabajo, se basa explicar la
relación que existe entre la mejora de ineficiencias operacional y sanitaria cuando el
estudio se hace de forma unificada. Se establecen cuatro niveles de relación entre los
diferentes tipos de eficiencias e ineficiencias de las organizaciones que dan lugar a los
ajustes necesarios para situar las entidades en las fronteras marcadas por las funciones
de producción de las entidades eficientes.
Palabras Clave: Sistema sanitario, eficiencia operacional, eficiencia sanitaria,
eficiencia unificada.
1. INTRODUCCIÓN
Tras la gestión de los recursos públicos subyace un sistema organizativo que se basa en
el carácter limitativo de los recursos. Las necesidades que puede satisfacer el sector
público pueden llegar a ser ilimitadas, no así lo son los recursos con los que cuenta para
llevarlas a cabo, por lo que debe modular su uso en función de unos criterios de
1
12
priorización de necesidades y gestionar los recursos con los que cuenta de la forma más
eficaz y eficiente que le sea posible.
Desde la llegada de la democracia a España en 1976, este país sufrió una transformación
radical en su desarrollo económico, político y social. Dentro de esa transformación, se
puede encuadrar la priorización en la prestación de determinados servicios considerados
básicos para el desarrollo equilibrado de una sociedad desarrollada. Entre esos servicios
se encuentran la sanidad y la educación, para cuyo desarrollo, se utilizó la propia
división territorial y política por la que se optó para el buen desarrollo del proyecto
democrático de país que salió de la transición española.
Este modelo territorial divide España en diecisiete Comunidades Autónomas (en
adelante CA), y dos Ciudades Autónomas. Como podemos observar en el Mapa I de las
diecisiete CAs quince se encuentra en la Península Ibérica y dos son archipiélagos. Uno
de ellos, a pesar de que se muestre por cuestiones de espacio en la esquina inferior
derecha del mapa, realmente se encuentra en el Océano Atlántico, próximo a las costas
africanas, frente a Marruecos y el Sahara Occidental. Las dos ciudades autónomas se
encuentran en el norte de África.
Estas autonomías han asumido de forma paulatina, en unos casos a más velocidad que
otras, numerosas funciones que tradicionalmente asumía de forma centralizada el
estado, entre ellas las relativas a la salud, por entender que la cercanía a los ciudadanos
mejora el conocimiento de sus necesidades y la gestión directa que debe realizar de los
recursos. Cada CA tiene su propio servicio de salud, el cual gestiona los recursos
destinados a sanidad de forma autónoma, de la forma que cree más conveniente en aras
a la consecución de sus objetivos.
Esta descentralización está siendo cuestionada en estos momentos de crisis, entre un
sector que defiende que los recursos se utilizan de forma más eficiente si se centralizan,
ya que de otra forma el sistema se vuelve insostenible desde el punto de vista
económico, y otro sector que defiende que los servicios se prestan mejor desde la
cercanía a los ciudadanos, lo que permite un mejor conocimiento de las necesidades de
los mismos, repercute en la equidad del acceso a los servicios públicos y reduce las
desigualdades sociales.
2
13
Mapa I: División territorial de España: Comunidades y Ciudades Autónomas.
El objetivo que persigue este trabajo es estudiar la eficiencia de los servicios sanitarios
autonómicos en España, a través de la gestión de los recursos públicos invertidos en
ellos por habitante protegido, fundamentalmente con el uso que hace de ellos bien a
través de conciertos con empresas privadas, de formación de personal residente o de la
propia atención directa que realiza a los usuarios del servicio sanitario, este último
compuesto por el gasto de farmacéutico, la remuneración del personal y los consumos
intermedios, necesarios para prestar el servicio sanitario correspondiente, y como
repercute todo ello en la esperanza de vida al nacer y en la tasa de mortalidad general
ajustada por edad, por cada 100.000 habitantes. La elección de estas variables inputs se
debe a los importantes debates abiertos en la actualidad sobre la conveniencia o no de
externalizar o privatizar los servicios, así como sobre la necesidad de invertir en
formación e investigación, en una época de crisis como la actual.
El uso eficiente de los recursos en general y de los recursos públicos en particular, debe
ser una de las premisas básicas en economía, donde los bienes son escasos y
susceptibles de usos alternativos. El estudio de la eficiencia según González et al (2010)
puede llevarse a cabo desde dos perspectivas distintas: a) utilizando indicadores de
gestión basados en el análisis de ratios, lo que puede llevar a resultados contradictorios
en función de los indicadores utilizados (Smith y Goddard, 2003) y b) utilizando índices
globales de eficiencia que miden las distancias de las unidades analizadas a la frontera
de producción marcada por las unidades eficientes en función de los recursos utilizados
y los resultados obtenidos.
Dentro de esta última perspectiva se encuentra el Análisis Envolvente de Datos (DEA),
modelo que está considerado como un buen sistema de medición de la eficiencia del
sector público (Lowell y Muñiz, 2003), y que cuenta con la ventaja de poder incluir en
el estudio varias variables inputs y/o outputs. Este modelo surgió como extensión del
trabajo de Farrel (1957) en el que se muestra una medida de la eficiencia productiva y
su cálculo (Coelli, 1996, Coll y Blasco, 2006 y Cooper et al., 2007).
La aplicación del DEA proporciona las distancias de las unidades ineficientes hasta la
frontera marcada por las funciones de producción de las unidades eficientes.
3
14
Habitualmente, la técnica de análisis DEA precisa una orientación hacia las variables
controladas, ya sean los inputs o los outputs, lo que da lugar a los modelos inputs-orientado
u output-orientado (Ramanathan 2003), al entender que las medidas correctoras que se
proponen por el modelo deben aplicarse sobre las variables controladas, aunque es habitual
que se recomienden ajustes tendentes a influir sobre las variables no controladas.
Recientemente, los estudios que aplican la técnica DEA, para medir la eficiencia de los
sistemas de producción, están optando por la aplicación de un modelo DEA no orientado,
donde la distinción se realiza en función de las variables inputs u outputs consideradas
deseables (good) o no-deseables (bad) (Sueyoshi y Goto, 2011).
Tras esta introducción se ha llevado a cabo una exposición del DEA, como técnica de
estudio de las eficiencias de un grupo de organizaciones a la hora de evaluar el uso de los
recursos utilizados para conseguir unos niveles adecuados de resultados. Este análisis se
desglosa en el estudio de la técnica en general y posteriormente se analizan los diferentes
tipos de eficiencia operacional, sanitaria y unificada. A continuación se realiza una
descripción de la metodología y de los datos utilizados, y se lleva a cabo una aplicación
práctica del estudio de las eficiencias de los sistemas sanitarios de las CAs en. Por último se
extraen una serie de conclusiones a partir de la aplicación práctica del modelo.
2. DESCRIPCIÓN DE LOS DATOS Y METODOLOGÍA
Una revisión de la literatura reciente, muestra el estudio de la eficiencia en el uso de los
recursos por parte de las organizaciones a través a través del DEA (Campos y Velasco,
2013; González et al, 2010). Esta aplicación tradicional del estudio de la eficiencia,
enfoca el análisis hacia una orientación input u output en función de las variables sobre
las que la organización tenga capacidad de influencia, de forma que se utiliza un modelo
input-orientado cuando las variables controladas sean los inputs, u output-orientado
cuando las variables controladas sean los outputs. Para ello se puede aplicar el
procedimiento multietápico de Coelli (1996, 1998), que generaliza otros
procedimientos, tales como el bietápico (Alí y Seiford, 1993) y el método en tres etapas
(Cooper et al., 2007) y que se adecua a la eficiencia de Koopmans (1951).
Recientemente, el estudio de la eficiencia ha dado un paso más, al diferenciar entre
aquellas variables que sean deseables o recomendables (good), y aquellas que son nodeseables o no-recomendables (bad), en definitiva diferencia aquellas cuyo incremento
mejora la eficiencia de otras que actúan justo al contrario, la mejora de la eficiencia se
produce cuando se reduce su uso en el caso de los inputs o producción en el caso de los
outputs (Sueyoshi and Goto, 2011).
A través de este tipo de estudio se calculan tres tipos de eficiencia. La primera asociada
a las variables deseables. Se trata de la llamada eficiencia operacional y está relacionada
con la estructura operativa de las organizaciones. La segunda de las eficiencias, está
relacionada con las variables no-deseables, es la llamada eficiencia sanitaria, y marca el
efecto del entorno sobre el uso eficiente de los recursos. En estos dos casos, se
considera que ambas eficiencias son independientes, de forma que sólo se estudia la
variabilidad o influencia que pueda tener la organización sobre las variables deseables
en el primer caso o no-deseables en el segundo. La tercera de las eficiencias es la
eficiencia unificada, que realiza un estudio conjunto de ambas eficiencias, y nos
proporciona un análisis global del uso de los recursos por parte de las organizaciones.
En este último tipo de eficiencia, se parte de la idea de que cuando una organización
utiliza unos recursos, produce tanto outputs deseables (good) como outputs nodeseables (bad), por lo que para mejorar la eficiencia tiene que incrementar los primeros
y disminuir los segundos a la vez que mantiene, disminuye o incluso incrementa los
4
15
inputs. Por ello, en este último caso, se establecen dos fronteras marcadas por las
funciones de producción de las entidades eficientes, una superior a la que deben tender
los inputs y los outputs deseables, y otra inferior a la que deben tender los inputs y los
outputs no-deseables.
En este trabajo, se realiza un análisis de la eficiencia del uso de los recursos públicos
sanitarios que gestionan los servicios sanitarios de las Comunidades y Ciudades
Autónomas de España, y su efecto sobre la vida de los ciudadanos. Para ello, se ha
utilizado la base de datos de Indicadores Clave del Sistema Nacional de Salud
(INCLASNS, 2012) publicados por el Ministerio de Sanidad Servicios Sociales e
Igualdad del Gobierno de España.
Como dijimos al principio, las necesidades de los ciudadanos pueden llegar a ser
ilimitadas, sin embargo, la disponibilidad presupuestaria limita los servicios que las
administraciones públicas pueden suministrar a la hora de cumplir con la función social
que se les tenga encomendada. La gestión pública, a diferencia de la gestión
empresarial, parte del volumen de recursos con los que cuenta y decide en que, y para
que, van a ser utilizados (en el caso de las empresas se parte de una demanda del
mercado y en base a ella se estipulan los gastos en los que hay que incurrir para
satisfacerla).
Por todo lo anterior, se han utilizado como variables Inputs, en primer lugar el gasto
sanitario público territorializado por habitante protegido (Input 1), así como el uso que
se decide hacer de esos recursos al considerar qué parte de dichos recursos se destina a
conciertos con empresas privadas (Input 2), qué parte a formación de residentes (Input
3) y qué parte a la atención pública directa a los ciudadanos (Input 4), donde se incluyen
tanto el gasto farmacéutico, las remuneraciones de personal y los consumos intermedios
como principales componentes que absorben la inversión sanitaria que se hace por parte
de la administración pública en los ciudadanos. Como variables Outputs se han utilizado
dos indicadores reconocidos como de calidad por la Organización Mundial de la Salud,
la esperanza de vida al nacer, cuyo incremento supone una mejora en la eficiencia de
uso de los recursos (Output 1-Good) y la tasa de mortalidad general ajustada por edad
por cada 100.000 habitantes, cuya disminución supone, de igual forma, la mejora de la
eficiencia de uso de los recursos (Output 2-Bad).
Asociado al estudio de la eficiencia, se encuentra la variabilidad creciente, decreciente o
constante de los outputs asociada a la variación de los inputs. En el caso de las variables
deseables (good), se habla de tasa de rendimiento a escala o RTS. Esta magnitud
muestra la variación mayor, menor o de igual proporción que sufre la variable output
cuando se produce una variación de los inputs, e indica la conveniencia o no de
incrementar el tamaño operacional de la organización. Por ejemplo, cuando RTS es
creciente, se considera que el aumento de inputs utilizados, es decir, el tamaño
operacional, da lugar a un aumento más que proporcional de los outputs-good, por lo
que las grandes organizaciones superan a las pequeñas en rendimiento operacional, y
por tanto, el aumento del tamaño o del volumen de operaciones (o de recursos
utilizados) permite alcanzar la eficiencia operacional. Cuando se trate de RTS constante
se recomienda el mantenimiento del tamaño y cuando sea decreciente se recomienda
reducir el tamaño.
En el caso de las variables no-deseables (bad) se habla de tasa de daños a escala (DTS)
que refleja la variabilidad de los outputs-bad, asociada a la variación de los inputs. En
este caso el efecto creciente, decreciente o constante sobre los outputs es similar al RTS,
sin embargo, el efecto sobre las medidas a tomar serán las opuestas, es decir, cuando se
5
16
trabaja con factores de producción que operan a escala DTS creciente, el aumento de los
inputs provoca un aumento más que proporcional en los outputs-bad. Si tenemos en
cuenta que estos output son no-deseables, y el incremento del tamaño operacional
perjudica el alcance de la eficiencia sanitaria, por lo que se recomienda la disminución
de los inputs utilizados. En el caso de que DTS sea constate o decreciente, no se
recomienda pero si se acepta, mantener o aumentar respectivamente el tamaño
operacional o cantidad de inputs utilizados.
3. ANALISIS ENVOLVENTE DE DATOS
El DEA es una aproximación gerencial para evaluar la actuación operativa de varias
unidades pertenecientes tanto al sector público como al privado, y está considerado como
uno de los métodos de gestión más populares. Dicha popularidad puede ser contrastada en
el artículo de Emrouznejad et al. (2008), el cual resume contribuciones previas al análisis
envolvente de datos. Por otro lado, el artículo de Glover y Sueyoshi (2009) describe la
historia del DEA desde las contribuciones del profesor William W. Cooper, colaborador
fundamental de esta técnica de análisis. Finalmente, Ijiri y Sueyoshi (2010) describen el
transfondo filosófico sobre la contabilidad y la economía que se convirtieron en el eje
fundamental del DEA. Para responder a cuestiones relacionadas con el medio ambiente,
han sido muchas las publicaciones que emplearon métodos de investigación operativa para
obtener evidencias analíticas al respecto. Ejemplo de ello son los trabajos de Cooper et al.
(1996) y Zhou et al. (2008).
La contribución esencial al DEA en los estudios de medioambiente fue encontrar el
método para separar un output en outputs deseables o good y outputs no-deseables o bad,
ya que la producción de los sectores (público y privado) puede ser no-deseable en
ocasiones.
Al separar los outputs en variables positivas y negativas, se puede medir la eficiencia
operacional de los outputs deseables y la eficiencia sanitaria de los outputs no-deseables.
Sin embargo, nos encontramos una dificultad relacionada con esta separación; es decir,
tenemos que averiguar cómo combinar los dos tipos de outputs para poder emplearlos en
un análisis unificado. Los trabajos previos utilizaban el DEA para un uso limitado en la
valoración medioambiental, aunque el DEA tenga una alta capacidad de investigación para
la protección del medio ambiente.
Entre los trabajos previos, podemos destacar a Sueyoshi et al. (2010) y Sueyoshi y Goto
(2010a) que propusieron un nuevo método de combinación para medir la eficiencia
operacional, la eficiencia ambiental y la eficiencia unificada en las plantas térmicas de
carbón estadounidenses, en el que recomendaron al Gobierno Federal que desarrollara una
“Ley de Aire Limpio” para controlar las emisiones de dióxido de carbono, ya que
consideraban a dicho gas como una de los principales fuentes del calentamiento global y el
cambio climático. Con estos estudios investigaron la implicación política mediante dos
estructuras de datos diferentes y dos aproximaciones analíticas, usando la nueva
metodología
unificada.
Por otra parte, el trabajo de Sueyoshi y Goto (2011) comparó la nueva combinación
unitaria con otras aproximaciones unificadas desde la perspectiva de la valoración
medioambiental: en su publicación, discutieron la importancia de la clasificación de los
inputs en variables energéticas y no energéticas dentro de los estudios de medioambiente.
Por ello, es apropiado distinguir entre outputs deseables y no-deseables.
Por último, el trabajo de Sueyoshi y Goto (2010b), considerado una extensión de aquél,
discutía la importancia de la SCSS (siglas en inglés de “Condición de Holgura
Complementaria Fuerte”) en valoración medioambiental. El estudio concluye que las
empresas manufactureras japonesas buscaban en primer lugar la eficiencia operacional para
6
17
la acumulación de capital, y entonces se centraban hacia la eficiencia medioambiental. Las
preferencias empresariales eran éstas a pesar de la considerable presión del gobierno
japonés por la protección ambiental tras la firma del Protocolo de Kyoto.
a. Medidas de eficiencia operacional y sanitaria
En este trabajo se toma como modelo DEA inicial el modelo RAM (siglas en inglés de
“Medida de Rango Ajustado”), propuesto por Cooper et al. (2000) porque es un modelo
de eficiencia basado en holguras y por lo tanto, pueden unificarse fácilmente ambas
eficiencias, operacional y sanitaria. La característica metodológica es importante para la
eficiencia sanitaria, ya que los modelos DEA convencionales presentan dificultad para
unificarlos. Para mayor información, consultar Sueyoshi y Goto (2011), que
proporciona una descripción detallada de las dificultades metodológicas en el uso de
modelos DEA radiales para la valoración de la eficiencia relacionada con las variables
no-deseables.
Se va a revisar la medición de la eficiencia operacional empleando el modelo RAM.
Aplicando el modelo RAM para una valoración del rendimiento unificado,
consideramos “n” unidades de toma de decisiones.
La unidad j-esima (con j=1,…, n) emplea un vector columna de inputs (Xj) con el fin de
producir no solo un vector columna de outputs deseables (Gj), sino también un vector
columna de outputs no-deseables (Bj), en el que Xj=(x1j, x2j, …, xmj)T, Gj=(g1j, g2j, …,
gsj)T y Bj=(b1j, b2j, …, bhj)T. El superíndice “T” significa vector transpuesto y se asume
que Xj>0, Gj>0 y Bj>0 para todo j=1,…, n.
Se evalúa la eficiencia operacional de la unidad organizativa específica “k” mediante el
siguiente modelo RAM input-output deseables (de ahora en adelante, “Modelo 1”):
a.
Modelo Operacional
Maximizar
sujeto a
(i=1,…, m),
(r=1,…, s),
(j=1,…,n),
(i=1,…,m) y
.
En este modelo,
es un vector columna de variables desconocidas
(normalmente nos referimos a ellas como variables “estructurales” o “intensivas”) que
son empleadas para unir los vectores input y output mediante una combinación convexa.
(i=1,…,m) y
son variables de holgura relacionadas con los inputs y
los outputs deseables, respectivamente.
Los rangos en el Modelo 1 son determinados mediante los límites superior e inferior de
los inputs y los de los outputs deseables. Los límites superiores se representan por
=
( )y =
( ). Los límites inferiores se representan por =
( )
y
(
). Por tanto, los rangos del modelo se convierten en
El valor de la eficiencia operacional de la unidad “k” viene dada por:
=1–(
+
), indicando el superíndice (*) el óptimo. La
ecuación dentro del paréntesis nos informa acerca de la valoración de la ineficiencia
operacional.
7
18
Figura 1: Proyecciones para alcanzar la eficiencia operacional.
Fuente: Sueyoshi y Goto (2010c)
La figura 1 muestra una descripción visual de la estructura analítica del Modelo 1. Se
pone especial énfasis en el input “i” y el output deseable “r” de la unidad k-esima. La
unidad organizativa es ineficiente por lo que necesita aumentar su eficiencia operacional
aumentando la cantidad de output deseable producido y/o reducir la cantidad de output
indeseable.
Una dirección para posibles proyecciones puede observarse en el punto B. La línea de
contorno ABC indica la frontera de eficiencia para el output deseable en la que el punto
K puede proyectarse. La dirección de tales proyecciones debería expresarse mediante el
signo de las holguras de los inputs relacionados y las holguras de los outputs deseables
en el Modelo 1.
Para finalizar, hay que mencionar varios problemas acerca del gráfico:
Las posibles proyecciones en el Modelo son dirigidas en un espacio de datos con
múltiples inputs y outputs buenos ya que
tiene efectos positivos en sus signos y ,
efectos negativos en sus signos. Estos signos transforman el Modelo 1 en su opuesto.
En segundo lugar, todos los modelos DEA sufren de la existencia de múltiples
proyecciones; esto puede influir en la medida de los Retornos a Escala (para mayor
conocimiento sobre la cuestión, consultar Sueyoshi y Sekitani (2009a) y Sueyoshi y
Sekitani (2007a,b)).
Finalmente, remarcar que el Modelo podría dirigirse hacia un punto ineficiente, pero no
es necesario considerarlo porque estas proyecciones están relacionadas con la
“congestión” en el Análisis Envolvente de Datos de tal manera que un incremento en los
inputs lleva consigo una reducción de los outputs deseados, como se puede ver en
Cooper et al. (2001a, b) y Sueyoshi y Sekitani (2009b).
b.
Eficiencia sanitaria: 2 modelos y proyecciones
8
19
En este apartado, vamos a medir la eficiencia sanitaria de la unidad organizativa
específica k-esima siguiendo el siguiente modelo RAM input-output no-deseable (de
ahora en adelante, Modelo 2):
+
Maximizar
sujeto a
(i=1,…, m),
(f=1,…, h),
(j=1,…, n),
(i=1,…, m) y
En dicho modelo,
deseables.
.
(f=1,…, h) son variables holgura relacionadas con los outputs no-
Los límites superiores e inferiores se representan por =
( )y
( ).
Por tanto, los rangos del modelo para los inputs y los outputs no-deseables del Modelo 2
son
.
La valoración de la eficiencia sanitaria de la unidad k-esima viene medida por:
=1–(
+
). La ecuación dentro del paréntesis, obtenida del
Modelo 2 optimizado, nos informa acerca la ineficiencia sanitaria.
-Extensión del modelo (de ahora en adelante, Modelo 3):
Maximizar
+
sujeto a
(i=1,…, m),
(f=1,…, h),
(j=1,…, n),
(i=1,…, m),
(i=1,…, m) y
.
En este modelo, la variable holgura relacionada con el input “i” ( ) está dividida en
una parte positiva y otra parte negativa (
). Ambas partes se definen como
y
, siendo
.
Normalmente, esta transformación necesita cumplir la siguiente condición de no
linealidad:
, lo que implica que ambas partes son mutuamente excluyentes.
Debido a ello, se produce una consecuencia de forma simultánea:
,
pero se excluye de la solución óptima del Modelo.
Para que el Modelo 3 satisfaga dichas condiciones no lineales, tenemos 2 alternativas de
cálculo:
1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones.
2) Incorporar las siguientes restricciones:
;
;
: binarios.
9
20
De este modo, podemos resolver el Modelo como un problema de programación entera
mixta.
Tras obtener una solución óptima del Modelo 3, determinamos la puntuación en
eficiencia sanitaria de la unidad k-esima, medida por:
=1–(
+
).
Todas las variables holgura son obtenidas a partir de la optimización del modelo.
La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria.
Gráfica 2: Proyecciones para alcanzar la eficiencia sanitaria
Fuente: Sueyoshi y Goto(2010a, 2011), Sueyoshi et al.(2010)
El gráfico 2 describe una visualización con respecto a por qué los Modelos 2 y 3 pueden
medir el grado de eficiencia sanitaria. Para explicarlo mejor, lo ilustraremos con un
ejemplo:
Tomamos una planta térmica concreta para medir su eficiencia. Para ello, consideramos
la relación entre el input “i” y el output no-deseable “f”. Un rasgo exclusivo para esta
medida es que el output no-deseable está frecuentemente ocasionado por el input; si lo
llevamos al ámbito empresarial, el carbón empleado durante la combustión en la planta
genera emisiones de dióxido de carbono.
Si la planta reduce la cantidad de carbón empleada en el proceso, la consecuencia
automática sería una reducción en la cantidad de emisiones de gases: esto es lo que
denominamos como una “reducción natural”, es decir, se consigue la reducción de
emisiones sin ningún tipo de esfuerzo empresarial.
En el gráfico encontramos una proyección de tal calibre en el desplazamiento del punto
K al punto G: el punto K muestra la actividad de una planta térmica ineficiente y el
punto G, su desempeño cuando se sitúa en la frontera de producción del output nodeseable cuando se trabaja de forma eficiente.
10
21
Por otro lado, el desplazamiento del punto K hacia el punto E informa acerca de un caso
distinto; en esta ocasión, la combustión de carbón implica una reducción de las
emisiones de dióxido de carbono debido a un esfuerzo empresarial (por ejemplo, un
aumento de la calidad del carbón empleado o un esfuerzo tecnológico para reducir las
emisiones). Por todo ello, este desplazamiento puede considerarse base para el estudio
de la medida de la eficiencia sanitaria.
c.
Eficiencia unificada
Un hallazgo importante en el apartado anterior es que hay 2 tipos de modelos
unificados: un primer modelo formado por los modelos 1 y 2, y el segundo compuesto
por los modelos 1 y 3. El siguiente punto combina ambos modelos para medir la
eficiencia unificada propuesta. A partir de aquí, se clasifican en 2 categorías: Categoría
1, que engloba al primer modelo; y Categoría 2: compuesto por el segundo modelo.
Gráfica 3: Eficiencia unificada.
Fuente: Sueyoshi and Goto(2011)
Para explicar las diferencias entre las 2 Categorías, emplearemos la “Gráfica 3”. Dicha
gráfica describe el alcance de cada unidad organizativa que emplea un input y produce
un output deseable y otro no-deseable: analizaremos, por ejemplo, la unidad k-esima.
El gráfico 3 dispone de dos fronteras de eficiencia para unificar la eficiencia operacional
y la sanitaria: la superior indica la frontera para los outputs deseables; la inferior, la
frontera de eficiencia para los outputs no-deseables. Aunque el análisis se puede
extender a múltiples inputs y outputs, en esta ocasión la unidad representada emplea un
único input y solo produce un output deseable y otro no-deseable.
Un aspecto importante es que la frontera eficiente deseable se encuentra por encima de
la frontera de eficiencia de outputs “malos”. Sin embargo, aunque el caso contrario
ocurriera, esto no provocaría dificultades en el cálculo de la medida eficiente, ya que la
unificación solo mide la cantidad total de desviaciones entre las actuaciones de cada
unidad organizativa y la frontera de eficiencia. Las dos fronteras están situadas
11
22
independientemente, tal que el método propuesto puede mantener una cierta fiabilidad.
Esto es un beneficio de la metodología empleada.
Finalmente, el Análisis Envolvente de Datos proyecta una organización ineficiente
sobre una frontera eficiente y evalúa su actividad mediante una comparación relativa
con la actividad de otras organizaciones. Cuando se discute sobre la eficiencia sanitaria,
la dirección de tales proyecciones es mucho más importante que el uso convencional de
las proyecciones en el análisis DEA.
Categoría I
En este apartado, vamos a combinar las medidas de eficiencia para obtener una nueva
medida unificada, diferente a las medidas operacional y sanitaria por separado.
Incluiremos dos nuevos superíndices (“g” y “b”) para especificar los outputs deseables y
los no-deseables, respectivamente.
El nuevo modelo DEA de Categoría I (de ahora en adelante, Modelo 4) ya ha sido
analizado en anteriores trabajos como Sueyoshi y Goto (2010a, 2011) y Sueyoshi et al.
(2010), y tiene la siguiente estructura matemática:
Maximizar
+
sujeto a
+
+
(i=1,…, m),
(r=1,…, s),
(i=1,…, m),
(f=1,…, h),
(i=1,…,m),
(i=1,…,m),
(r=1,…,s),
(j=1,…,n)
(i=1,…,m),
(f=1,…,h)
En dicho modelo, (j=1,…, n) y (j=1,…, n) indican la variable intensidad de la
unidad organizativa j-esima para los outputs deseables y los outputs no-deseables,
respectivamente.
Los rangos en el modelo vienen expresados de la siguiente manera:
.
Para finalizar, hay que mencionar cuatro características que son exclusivas para este
modelo:
En primer lugar, las tres primeras restricciones del modelo tienen su origen en el
Modelo 1 y las tres restantes proceden del Modelo 2.
Por otra parte, dicho modelo incorpora una estructura matemática tal que crea dos
fronteras de eficiencia: una para el comportamiento operacional y otra para el
desempeño sanitario. Dichas fronteras vienen representadas por los dos grupos de
holguras relacionadas con los inputs y los dos grupos de variables de intensidad.
12
23
En tercer lugar, las proyecciones del modelo se dirigen hacia el segundo y el cuarto
cuadrante. Esto ocurre porque los grupos de restricciones tienen signos diferentes; en
concreto, las dos primeras son distintas a la cuarta y quinta restricción.
Finalmente, puede resolverse este modelo como un problema de programación lineal, es
decir, se puede obtener una solución óptima, aunque pueda ocurrir un incidente de
múltiples proyecciones y conjuntos de referencia.
La puntuación de eficiencia unificada se obtiene a partir de la solución óptima y viene
expresada por: = 1 – [
+
+
]
Categoría II
Como alternativa al Modelo 4, en este apartado se emplea un nuevo modelo DEA que
unifica los Modelos 1 y 3, de tal modo que dicha combinación proporciona un único
conjunto de variables de intensidad, al contrario que el Modelo 4, el cual dispone de dos
grupos de variables de intensidad, para obtener una puntuación de eficiencia unificada
para el rendimiento operacional y el sanitario.
Para ello, vamos a emplear la formulación estudiada en Sueyoshi y Goto (2010a, 2011)
y Sueyoshi et al. (2010), de ahora en adelante “Modelo 5”:
Maximizar
+
+
sujeto a
(i=1,…, m),
(r=1,…, s),
(i=1,…,m),
(r=1,…,s),
(j= 1,…, h)
(i=1,…,m),
(f=1,…,h)
La variable de holgura
) relacionada con el input i-ésimo se encuentra separada en
una parte positiva y otra negativa
, incorporadas ambas en el primer grupo
de restricciones.
Matemáticamente, las dos holguras están definidas como
=(| | +
y
=(| | ). Esto conlleva que
en la función objetivo del Modelo 5 y
en el primer grupo de restricciones. La transformación variable de las
holguras de los inputs puede necesitar de las siguientes transformaciones no lineales:
lo cual implica que las dos variables de holgura sean
mutuamente excluyentes. En consecuencia, la condición de no negatividad de las
holguras se excluye de la solución óptima del Modelo 5.
Para que el Modelo 5 cumpla las condiciones no lineales, tenemos dos alternativas
computativas:
1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones y
resolver el Modelo 5 con
como un problema de programación no
lineal.
2) Incorporar las siguientes restricciones:
;
;
13
24
: binarios.
De este modo, podemos resolver el Modelo como un problema de programación entera
mixta; M es un número demasiado grande que debe ser prescrito.
-Inviabilidad de la formulación dual del Modelo 5: Es importante remarcar que el
Modelo puede producir una solución factible. Sin embargo, también se puede producir
una solución ilimitada porque la formulación dual es inviable. En este caso, hay que
depender de una de las dos alternativas. Normalmente, ambas producen una solución
similar. En este caso, la solución ilimitada conlleva al incumplimiento de las
condiciones no lineales del problema; no es una solución ilimitada corriente en
programación no lineal, es decir, que el valor óptimo tiende al infinito.
El incumplimiento de las condiciones implica que las variables de holgura sean
positivas simultáneamente, para cualquier “i” en la solución óptima del Modelo 5.
El problema de cálculo del Modelo 5 supone una desventaja metodológica, aunque el
modelo puede expresar las dos fronteras de eficiencia mediante un único conjunto de
variables de intensidad. Además, la dirección de las proyecciones del Modelo 5 está
enfocada no solo al primer y tercer cuadrante, sino también hacia el segundo cuadrante.
Si la reducción natural se considera parte del esfuerzo gubernamental para la protección
del medioambiente, el segundo cuadrante se convierte en una importante dirección
potencial para las proyecciones del modelo. Para ello, debería incluir estas proyecciones
en la estructura analítica del problema.
Tras obtener una solución óptima del Modelo 5, podemos obtener una puntuación en
eficiencia sanitaria de la unidad k-esima, medida por:
=1–(
+
).
Todas las variables de holgura, que representan el nivel de ineficiencia, son obtenidas a
partir de la optimización del modelo.
La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria.
4. ANALISIS DE LA EFICIENCIA
A continuación se analiza la eficiencia tanto de los recursos públicos utilizados como
del uso que se hace de ellos en el sistema sanitario español. En la tabla I se muestran los
datos relativos a la eficiencia operacional, eficiencia sanitaria, eficiencia unificada, RTS
y DTS, de las 17 CAs y de las dos Ciudades Autónomas del país.
Nº
CA
EOp
ESan
EU
RTS
DTS
RTS Unificada
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Andalusia
Aragon
Asturias
Balearic Islands
Canary Islands
Cantabria
Castile-Leon
Castile-La Mancha
Catalonia
Valencian Community
Extremadura
Galicia
Madrid
Murcia
Navarra
Basque Country
1
1
0.759
1
0.846
1
1
0.910
1
0.936
1
0.980
1
1
1
0.880
0.788
1
1
0.725
1
1
1
0.966
1
0.837
0.926
0.873
1
0.858
1
1
0.824
1
0.799
0.771
0.872
1
1
0.897
1
0.811
0.938
0.878
1
0.882
1
0.900
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Decreciente
Decreciente
Constante
Constante
Decreciente
Creciente
Creciente
Creciente
Creciente
Creciente
Constante
Creciente
Creciente
Constante
Creciente
Creciente
Creciente
Constante
Creciente
Constante
Creciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Decreciente
Decreciente
Constante
Constante
Decreciente
14
DTS
Unificada
Creciente
Creciente
Creciente
Creciente
Creciente
Constante
Creciente
Creciente
Constante
Creciente
Creciente
Creciente
Constante
Creciente
Constante
Creciente
25
17
18
19
Rioja, La
Ceuta
Melilla
0.924
0.914
1
0.937
0.815
1
0.884
0.774
1
Decreciente
Decreciente
Constante
Creciente
Creciente
Creciente
Decreciente
Decreciente
Constante
Creciente
Creciente
Creciente
Tabla I: Eficiencias operacional, sanitaria y unificada, así como tasas de variabilidad de rendimientos a escala y tasas
de variabilidad de daños a escala de las variables deseables y no-deseables por separado, y de su estudio unificado
(Fuente de elaboración propia).
La tabla II muestra el valor de las ineficiencias operacional y sanitaria calculadas de
forma independiente a través de las funciones objetivo de las entidades eficientes, como
la parte de ineficiencia operacional y sanitaria que incorpora el estudio unificado de la
eficiencia. Estas ineficiencias están relacionadas entre sí, por lo que se han calculado
dos variables, H1 y H2, que reflejan la mejora incorporada por el estudio unificado de la
eficiencia tanto en la vertiente operacional como en la vertiente sanitaria, cuando el
estudio se realiza de forma unificada en lugar de independiente.
Nº
CA
1
2
3
4
Andalusia
Aragon
Asturias
Balearic
Islands
Canary
Islands
Cantabria
Castile-Leon
Castile-La
Mancha
Catalonia
Valencian
Community
Extremadura
Galicia
Madrid
Murcia
Navarra
Basque
Country
Rioja, La
Ceuta
Melilla
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Fobj-OP
FobjOP-U
Fobj-San
Fobj-San-U
0
0
0,24116147
0
0
0,20096789
0,21158093
0
0
0,17631744
0
0
H1=( FobjOP)-( FobjOP-U)
0
0
0,04019358
H2=( FobjSan )-( FobjSan-U)
0,03526349
0
0
Mejora=
H1+H2
0,03526349
0
0,04019358
0
0
0,2745587
0,22879892
0
0,04575978
0,04575978
0,1538245
0
0
0,12818708
0
0
0
0
0
0
0
0
0,02563742
0
0
0
0
0
0,02563742
0
0
0,08985873
0
0,07488228
0
0,03415036
0
0,02845863
0
0,01497646
0
0,00569173
0
0,02066818
0
0,06428425
0
0,02024846
0
0
0
0,05357021
0
0,01687372
0
0
0
0,16291396
0,07394126
0,12656542
0
0,14192015
0
0,13576163
0,06161772
0,10547118
0
0,11826679
0
0,01071404
0
0,00337474
0
0
0
0,02715233
0,01232354
0,02109424
0
0,02365336
0
0,03786637
0,01232354
0,02446898
0
0,02365336
0
0,12007997
0,07583442
0,08582251
0
0,10006664
0,06319535
0,07151876
0
0
0,06277687
0,1851356
0
0
0,05231406
0,15427966
0
0,02001333
0,01263907
0,01430375
0
0
0,01046281
0,03085593
0
0,02001333
0,02310188
0,04515968
0
Tabla II: Relaciones entre ineficiencias operacional, sanitaria y unificada (Fuente de elaboración propia).
Fobj-OP: Ineficiencia operacional marcada por la función objetivo de la eficiencia operacional
Fobj-OP-U: Componente operacional de la ineficiencia unificada marcada por la función objetivo de la eficiencia
unificada.
Fobj-San: Ineficiencia sanitaria marcada por la función objetivo de la eficiencia sanitaria.
Fobj-San.U: Componente sanitaria de la ineficiencia unificada marcada por la función objetivo de la eficiencia
unificada.
- Andalucía.
En términos globales, la CA de Andalucía cuenta con eficiencia operacional pero no con
eficiencia sanitaria (ver tabla I). Ello significa, que tiene un tamaño productivo
adecuado, que le permite con los recursos públicos invertidos en sanidad por habitante
protegido, así como de la distribución que realiza de los mismos entre conciertos,
formación de residentes y aplicación pública directa a los ciudadanos, un nivel
adecuado de la esperanza de vida al nacer, por lo que se entiende que su gestión es
eficiente en la consecución del output que se considera deseable, y se sitúa en la frontera
superior para el citado output-good. El hecho de no contar con eficiencia sanitaria
(0.788), implica que debe reducir la tasa de mortalidad por cada 100.000 habitantes en
más de 100 personas, para lo que debe incrementar la inversión sanitaria por habitante
protegido hasta 1.380€ y destinar a conciertos una proporción mayor de la que destina
en la actualidad (debe pasar del 4,73% al 5,61%) a la vez que mantiene el porcentaje de
inversión en las otras áreas (ver Anexo II). Se debe tener en cuenta, que la tasa de daños
15
26
a escala (DTS) es creciente, lo que implica que un incremento de los inputs, provoca un
incremento más que proporcional del output no-deseable (output-bad), por lo que la
recomendación relativa al tamaño operacional es que debe reducir la cantidad de inputs
utilizados, no incrementarlos. Deben, por ello, buscarse otras medidas o políticas
encaminadas a reducir el output no-deseable o a cambiar la tendencia de variabilidad de
los daños a escala que se producen.
El hecho de no contar con eficiencia sanitaria implica que tampoco cuenta con
eficiencia unificada. En este caso el valor de la eficiencia unificada es inferior al valor
de la eficiencia operacional y superior al valor de la eficiencia sanitaria (0.824) (ver
tabla I). La eficiencia unificada, combina ambas eficiencias al tener en cuenta que en la
organización al utilizar unos determinados inputs se generan una serie de outputs (good
y bad) de forma conjunta y no separada. Al estudiar la eficiencia unificada, observamos
como las componentes de ineficiencias operacional y sanitaria de la eficiencia unificada,
absorben parte de sus respectivas ineficiencias tratadas de forma independiente, ya que
ese margen residual de ineficiencias es superior a la ineficiencia operacional e inferior a
la ineficiencia sanitaria (ver tabla II), lo que sitúa a la eficiencia unificada en un punto
intermedio entre las eficiencias operacional y sanitaria.
Esto implica que al analizar la eficiencia en la gestión de los recursos para obtener unos
determinados niveles de output deseable y no-deseable, la organización debe ser capaz
de mejorar la eficiencia para situarse en la frontera superior eficiente marcada por las
funciones de producción de las organizaciones eficientes en la gestión de sus recursos
con unos niveles adecuados de producción de outputs deseables y en la frontera inferior
para los no-deseables. En el caso de Andalucía (ver Anexo III) se sitúa en la frontera
superior, pero para situarse en la inferior debe realizar un esfuerzo financiero con el
incremento de los recursos que destina a gastos sanitarios por habitante protegido hasta
los 1380€ y la proporción que destina a conciertos hasta el 5,61% a la vez que reduce la
tasa de mortalidad por cada 100.000 habitantes en más de 100 personas. Podemos
observar, que las modificaciones necesarias para situar a la organización en la frontera
eficiente, son las mismas que en el caso de la eficiencia sanitaria. Esto se debe a dos
hechos fundamentales, el primero relativo a que el punto proyectado en la frontera
eficiente, está marcado por dos vectores que establecen un intervalo dentro del cual
puede situarse el nivel de uso de inputs y el nivel de outputs alcanzados. El segundo, es
que los coeficientes aplicados a las eficiencias operacional, sanitaria y unificada, tienen
una diferencia mínima, la suficiente como para mostrar la diferencia entre eficiencias y
el peso negativo que tiene la falta de eficiencia sanitaria sobre la unificada, pero que no
es suficiencia como para modificar el intervalo que marca el punto en la frontera
eficiente. La variabilidad tanto de la tasa de rendimientos a escala (constante) como de
la tasa de daños a escala (creciente) no se ve alterada, por lo que se debe ser prudente a
la hora de gestionar los recursos para obtener el nivel adecuado de output no-deseable,
ya que una variación de los inputs provoca un aumento más que proporcional de los
outputs no-deseables lo que puede perjudicar la eficiencia.
- Aragón.
La CA de Aragón, cuenta con eficiencia operacional, eficiencia sanitaria y eficiencia
unificada (ver tabla I), por lo que se sitúa en las fronteras eficientes que marcan las
funciones de producción de las DMUs eficientes para distintos tipos de eficiencia, es
decir, realiza unas inversiones por habitante protegido en el sistema sanitario, así como
una distribución de dichas inversiones de forma eficiente tanto para alcanzar un nivel de
esperanza de vida adecuado y una tasa de mortalidad por cada 100.000 habitantes
aceptable tanto si se estudian las eficiencias por separado como de forma unificada. Ello
16
27
se debe a que al no existir ineficiencias operacional ni sanitaria, lógicamente no es
posible disminuirlas cuando se realiza un estudio unificado.
- Asturias.
En el caso de la CA de Asturias, su servicio sanitario cuenta con eficiencia sanitaria,
pero no con eficiencia operacional que alcanza un valor de 0.759 (ver tabla I). La falta
de eficiencia operacional indica que no cuenta con una dimensión adecuada. Para
alcanzar la eficiencia operacional, la organización debe realizar una serie de ajustes
tanto en sus inputs como en su output deseable (ver Anexo I). Debe reducir el gasto
sanitario por habitante protegido en casi 370€ a la vez que reduce ligeramente la parte
de este gasto que destina a formación de residentes (4%) y la que destina a la atención
directa de los ciudadanos (0.84%), con lo que debe conseguir un aumento de la
esperanza de vida de más de 1,65 años, es decir, debe reducir su estructura operacional
en aras de conseguir la eficiencia operacional y alcanzar el nivel de output deseables
con una menor cantidad de recursos invertidos. Esta falta de eficiencia operacional
explica la falta de eficiencia unificada (0.799), que se encuentra entre la eficiencia
operacional y sanitaria. Los ajustes necesarios para alcanzar la eficiencia unificada son
los mismos que los que hay que realizar para alcanzar la eficiencia operacional (ver
anexo III), ello se debe a que el punto proyectado sobre la frontera eficiente para marcar
los niveles óptimos de inputs y outputs, viene determinado por unos vectores que
delimitan el área dentro de la cual se encuentran los puntos ineficientes de producción y
que deben tender hacia el proyectado en la frontera eficiente marcada por las funciones
de producción de las DMUs eficientes. La organización se sitúa en la frontera inferior
de la eficiencia unificada pero no en la superior. Para ello, debe realizar una serie de
ajustes tanto en sus inputs como en su output deseable. Debe reducir el gasto sanitario
por habitante protegido en casi 370€ a la vez que reduce la parte de este gasto que
destina a formación de residentes (4,07%) y la que destina a la atención directa de los
ciudadanos (0.84%), con lo que debe conseguir un aumento de la esperanza de vida de
más de 1,65 años. A estos niveles cuenta con una dimensión operacional adecuada para
conseguir la eficiencia unificada. Se debe tener en cuenta que la tasa de RTS es
decreciente, por lo que la variación de los inputs provoca una variación menos que
proporcional de los outputs por lo que la reducción que se ha sugerido anteriormente
tiende a provocar una reducción del output menos que proporcional, aunque no un
aumento como se propone.
El hecho de que la eficiencia unificada, se encuentre encima de la eficiencia operacional
y por debajo de la eficiencia sanitaria, se explica porque al realizar el estudio unificado
de la eficiencia, se incorpora una mejora que viene dada por la comparación de las
componentes separables de las funciones objetivo de las eficiencias operacional y
sanitaria unificadas sobre las de sus respectivas ineficiencias calculadas de forma
independiente (ver tabla II), y esta mejora es mayor que la ineficiencia operacional,
marcada por la función objetivo del servicio sanitario asturiano para el estudio de la
eficiencia operacional, por lo que absorbe la ineficiencia operacional.
- Islas Baleares.
En el caso del servicio sanitario de las Islas Baleares, nos volvemos a encontrar con que
cuenta con eficiencia operacional, pero no con eficiencia sanitaria (0.725), lo que da
lugar a un nivel de eficiencia unificada que se encuentra entre ambos (0.771) (ver tabla
I). Este servicio sanitario, se encuentra bien dimensionado, de forma que realiza unas
inversiones sanitarias por habitante protegido y las distribuye de forma apropiada para
alcanzar el nivel de outputs deseable adecuados. Desde el punto de vista de la eficiencia
17
28
sanitaria, es necesario que se realicen una serie de ajustes para alcanzar dicha eficiencia
(ver anexo II). Para conseguir la eficiencia sanitaria es necesario aumentar el gasto
sanitario por habitante protegido en 191,51€, al mismo tiempo que se aumenta la
proporción de los mismos que se destina a formación de residentes y a atención directa
a los ciudadanos (aumento del 71% y 1,71% respectivamente). Junto a estos ajustes de
los inputs, se requiere una disminución de la tasa de mortalidad por cada 100.000
habitantes en más de 72 personas (15% aproximadamente).
En el caso de la eficiencia unificada, el sistema balear de sanidad se sitúa en la frontera
superior marcada por las funciones de producción que cuentan con eficiencia unificada,
sin embargo para situarse al mismo tiempo en la frontera inferior y contar así con
eficiencia unificada necesita incrementar su inversión pública sanitaria por habitante
protegido en 191,51€, a la vez que destina incrementa la proporción de los mismos que
destina a formación de residentes en un 71% y la parte que destina a gasto sanitario
directo en un 1,71%, a la vez que reduce la tasa de mortalidad por cada 100.000
habitantes en 73 personas, ajustes similares a los que debe realizar para alcanzar la
eficiencia sanitaria (ver anexo II). Esta coincidencia, como se ha dicho anteriormente, se
debe a que el punto proyectado sobre la frontera eficiente está marcado por dos vectores
que establecen un área desde la cual todos los puntos incluidos en ella deben tender al
punto proyectado para alcanzar la eficiencia.
A esos niveles, este sistema sanitario tiene tanto eficiencia sanitaria como eficiencia
unificada, no obstante, debe tenerse en cuenta que en ambos casos la DTS es creciente,
lo que implica que un aumento de los inputs provoca un aumento más que proporcional
de los outputs lo que sería contraproducente para alcanzar el objetivo de eficiencia que
nos hemos marcado, por lo que deberían aplicarse otro tipo de políticas capaces de
mejorar la eficiencia.
En este caso, como podemos observar en la Tabla II, al no existir ineficiencia desde el
punto de vista operacional, el estudio unificado de la misma no puede reducir el nivel de
ineficiencia por debajo de la ineficiencia operacional al ser una DMU eficiente. Si
puede, en cambio, al existir un nivel de ineficiencia sanitaria por encima de la mejora
incorporada por las componentes unificadas de las ineficiencias operacional y sanitaria
unificadas sobre sus respectivas eficiencias operacional y sanitaria, absorber parte de la
ineficiencia sanitaria y situar la eficiencia unificada por encima de la sanitaria pero sin
alcanzar el nivel de eficiencia.
- Islas Canarias.
El sistema sanitario de las Islas Canarias, tiene eficiencia sanitaria pero no eficiencia
operacional (0.846), lo que indica que este servicio sanitario no está bien dimensionado.
La eficiencia unificada se encuentra entre los valores de la eficiencia operacional y
sanitaria (0.872), ya que la falta de eficiencia operacional impide que este servicio
sanitario cuente con eficiencia cuando el estudio se realiza de forma unificada (ver tabla
I). Para alcanzar la eficiencia operacional (ver Anexo I), el servicio sanitario canario,
debe reducir la cantidad de gasto sanitario por habitante protegido en más del 12,6%, a
la vez que disminuye la proporción de los mismos destinada a conciertos y formación
de personal (13,6% y 16,8% respectivamente), junto a estas disminuciones debe
incrementar la esperanza de vida en casi un año. A estos niveles, el servicio sanitario de
la CA de Canarias alcanzará la eficiencia operativa y se situará en la frontera eficiente
marcada por las funciones de producción de las entidades eficientes en el uso de los
recursos que utilizan para la consecución de un nivel de output-good o deseable. Esta
falta de eficiencia operacional, da lugar a la falta de eficiencia unificada. Para situarse
18
29
en las fronteras eficientes superior e inferior marcadas por las funciones de producción
de las DMUs unificadamente eficientes, el servicio sanitario de las Islas Canarias, debe
realizar unos ajustes similares a los que debe realizar para alcanzar la eficiencia
operacional (ver anexo III). Ello se debe la que el punto sobre la frontera eficiente viene
marcado no por un vector, sino por un área delimitada por dos vectores desde la cual se
puede tender a la eficiencia. Se observa que la tasa RTS es decreciente, lo que implica
que una variación de los inputs provoca una variación menos que proporcional de los
outputs, y que si se lleva a cabo una reducción de los inputs como la propuesta, provoca
una disminución menos que proporcional a la de los inputs, pero en cualquier caso una
disminución y no un aumento como el que se ha sugerido.
El hecho de contar con eficiencia sanitaria implica, obviamente, la falta de ineficiencia
sanitaria, por lo que la mejora que introduce el estudio unificado de la eficiencia en
relación al estudio de la eficiencia operacional y sanitaria por separado, no puede
mejorar la eficiencia sanitaria, sin embargo, esa mejora si que afecta a la eficiencia
operacional ya que absorbe parte de su ineficiencia (ver tabla II) y sitúa a la eficiencia
unificada entre los valores de la eficiencia sanitaria y operacional .
- Cantabria.
La CA de Cantabria cuenta con eficiencia operacional, sanitaria y unificada (ver tabla
I), lo que implica un uso eficiente de los recursos invertidos en la sanidad pública, con
un nivel adecuado de gasto por habitante protegido y una distribución de los mismos de
forma conveniente, que le permite obtener una esperanza de vida y tasa de mortalidad
por cada 100.000 habitantes adecuados (ver anexos I, II y III) y situarse en las fronteras
de producción de las organizaciones eficientes, fronteras a la que su propia función de
producción contribuye a delimitar. La falta de eficiencia operacional y sanitaria, implica
la imposibilidad de mejora cuando se realiza el estudio de forma unificada en lugar de
independiente.
- Castilla-León.
Nuevamente nos encontramos con un servicio sanitario, el de la CA de Castilla-León,
que alcanza la eficiencia operacional, sanitaria y unificada (ver tabla I). Se confirma por
tanto utiliza los recursos públicos que destina a su sistema sanitario lo hace de forma
eficiente a la hora de conseguir unos niveles de outputs deseable y no-deseable
adecuados. El estudio unificado de las eficiencias operacional y sanitaria, se realiza en
base a la pérdida de ineficiencia operativa y sanitaria cuando el estudio se realiza
comparando las componentes de ineficiencia operativa y sanitaria de la eficiencia
unificada con ambas ineficiencias estudiadas de forma independiente (ver tabla II). Al
contar con eficiencia operacional y sanitaria, no existen ineficiencias por lo que no es
posible reducirla.
- Castilla-La Mancha.
El servicio sanitario de la CA de Castilla-La Mancha, no tiene ni eficiencia operacional
(0.910), ni eficiencia sanitaria (0.966), ni eficiencia unificada (0.897) (ver tabla I). Se
trata, en primer lugar, de una organización mal dimensionada, que no se sitúa en la
frontera eficiente superior marcada por las funciones de producción de las entidades
operacionalmente eficientes. Para conseguir alcanzar la eficiencia operacional debe
reducir el gasto sanitario por habitante protegido en un 12,5%, a la vez que reduce la
proporción de los mismos que destina a formación de residentes (reducción de 6,4%), el
resto de variables utilizadas en el estudio no necesita ningún ajuste, incluida la
esperanza de vida que se considera tiene un nivel adecuado (ver anexo I). A estos
19
30
niveles, el servicio sanitario de la CA de Castilla-La Mancha, se sitúa en la frontera
eficiente marcada por las funciones de producción de las DMUs operacionalmente
eficientes.
Para alcanzar la eficiencia sanitaria, y gestionar sus recursos de forma adecuada en aras
a alcanzar un nivel de output no-deseable necesario para obtener esta eficiencia, debe,
con el nivel de gasto sanitario por habitante protegido actual, incrementar la proporción
del mismo que destina a conciertos y a formación de residentes (5,75% y 6,2%
respectivamente), a la vez que disminuye la tasa de mortalidad por cada 100.000
habitantes 16 personas (ver anexo II). A estos valores el sistema sanitario de Castilla-La
Mancha se sitúa en la frontera eficiente marcada por las funciones de producción de las
DMUs sanitariamente eficientes.
Como hemos dicho, este servicio sanitario tampoco cuenta con eficiencia unificada.
Para alcanzarla, el servicio sanitario de la CA de Castilla-La Mancha, debe realizar
ajustes similares a los realizados para alcanzar la eficiencia operacional y situarse en la
frontera superior marcada por las funciones de producción que cuentan con eficiencia
unificada y ajustes similares a los establecidos para alcanzar la eficiencia sanitaria y
situarse así en la frontera inferior marcada por las mismas funciones de producción (ver
anexo III). Se vuelve a insistir en que la coincidencia en los ajustes se debe a que la
proyección puede darse desde los diferentes puntos de un área delimitada por los
vectores que focalizan el punto en la frontera eficiente al que debe proyectarse la DMU
para conseguir la eficiencia.
Debe tenerse en cuenta que la tasa RTS tanto cuando se estudia a eficiencia operacional,
como cuando se estudia la eficiencia unificada es decreciente lo que implica que una
variación de los inputs provoca una variación menos que proporcional de los outputs
por lo que la reducción propuesta tiende a disminuir el output-good aunque sea menos
que proporcionalmente. Del mismo modo, la tasa DTS tanto para la eficiencia sanitaria
como para la unificada, es creciente, lo que implica que un aumento de los inputs
provoca un aumento más que proporcional de los outputs, lo cual va en contra de las
medidas de ajustes propuestas, por lo que es necesario aplicar otro tipos de políticas
adicionales para alcanzar el objetivo de eficiencia.
El estudio de la eficiencia unificada, arroja un valor de la eficiencia por debajo de las
eficiencias operacional y sanitaria. En este caso, la mejora incorporada por eficiencia
unificada con respecto a las eficiencias operacional y sanitaria estudiadas de forma
separada, debe absorber tanto la ineficiencia operacional como la sanitaria. En ambos
casos, esa mejora no alcanza el nivel de ineficiencia operacional, ni el nivel de
ineficiencia sanitaria determinada por las funciones objetivo de ambas eficiencias (ver
tabla II), por lo que no es capaz de absorber ninguna de ellas en su totalidad y sitúa la
eficiencia unificada por debajo de las otras dos.
- Cataluña.
La gestión de los recursos públicos invertidos en el sistema sanitario de la CA de
Cataluña se realiza de forma eficiente tanto si se realiza un estudio independiente de las
eficiencias operacional y sanitaria, como si el estudio se hace de forma unificada, para
alcanzar unos niveles de outputs adecuados (ver anexos I, II y III). La falta de
ineficiencias operacional y sanitaria da lugar a que el estudio unificado de las mismas
no requiera de mejora de la eficiencia (ver tabla II). En definitiva, la CA de Cataluña
con las inversiones sanitarias por habitante protegido, y la distribución de la misma
entre conciertos, formación de residentes y atención directa a los ciudadanos que
realiza, sitúa la esperanza de vida y la tasa de mortalidad a unos niveles adecuados
20
31
como para situar el sistema sanitario autonómico, en relación a las variables analizadas,
en las fronteras eficientes marcadas por las funciones de producción de las DMUs
eficientes, entre las que ella misma se encuentra, tanto a nivel operacional y sanitario de
forma independiente, como unificado.
- Comunidad Valenciana.
El servicio sanitario de la Comunidad Valenciana, no cuenta ni con eficiencia
operacional (0.936), ni con eficiencia sanitaria (0.837), ni con eficiencia unificada
(0.811) (ver tabla I). Este servicio sanitario debe reestructurar las inversiones que realiza
en gasto sanitario y disminuir su dimensión para alcanzar la eficiencia operacional (ver
anexo I). La proyección que debe realizar de sus variables, en este sentido, requieren
una disminución del gasto sanitario por habitante protegido de casi 33€, así como una
leve disminución de la proporción que destina a atención directa a los ciudadanos de
0.34%. Con estas medidas de ajuste, no llega a alcanzar la eficiencia operacional ya que
adicionalmente es necesario un incremento de la esperanza de vida de más de una año.
A esos niveles, el servicio sanitario de la Comunidad Valenciana está trabajando a unos
niveles que le permiten obtener la eficiencia operacional y situarse en la frontera
marcada por las funciones de producción de las DMUs operacionalmente eficientes.
Para alcanzar la eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por
habitante protegido en más de 85€, a la vez que incrementa la proporción de los mismos
que destina a conciertos y a formación de residentes (7,2% y 22,76% respectivamente).
Estos ajustes de los inputs no consiguen colocar a este servicio sanitario en la frontera
marcada por las funciones de producción de las DMUs eficientes, adicionalmente se
requiere una disminución de la tasa de mortalidad por cada 100.000 habitantes de más
del 14% (ver anexo II). A esos niveles, el servicio sanitario de la Comunidad Valencia,
cuenta con eficiencia sanitaria y se sitúa en la frontera marcada por las funciones de
producción de las organizaciones que operan con eficiencia sanitaria.
Para contar con eficiencia unificada, el sistema sanitario de la Comunidad Valencia
debe llevar a cabo ajustes similares a los que se proponen para alcanzar la eficiencia
operacional y situarse en la frontera superior marcada por las funciones de producción
que cuentan con eficiencia unificada y ajustes similares a los que se proponen para la
eficiencia sanitaria, y situarse en la frontera inferior marcada de las mismas funciones
de producción (ver anexo 3). El hecho de que a pesar de partir de dos puntos distintos
de eficiencia se requiera tender hacia las mismas proyecciones, se debe, como se ha
dicho ya reiteradas veces, a que dicho punto está marcado por dos vectores que
delimitan un área desde la que cualquier punto de la misma deba proyectarse hacia la
convergencia vectorial para alcanzar la eficiencia.
Debe tenerse en cuenta que tanto para eficiencia operacional como para la unificada la
tasa RTS es creciente, lo que implica que una variación de los inputs provoca una
variación más que proporcional de los outputs-good o deseables, por lo que la
disminución propuesta de los inputs da lugar a una disminución más que proporcional
de la esperanza de vida, y no un aumento como se propone. Por el contrario, la tasa DTS
es decreciente tanto para la eficiencia sanitaria como para la unificada, lo que implica
que una variación de los inputs provoca una variación menos que proporcional de los
outputs, por lo que si se realizan los ajustes al alza propuestos, la variación del outputbad o no-deseable es menos que proporcional pero suponen un incremento del output en
lugar de la disminución propuesta.
Este sistema sanitario tiene una eficiencia unificada por debajo tanto de la eficiencia
operacional como de la eficiencia sanitaria. Ello se debe a que la mejora incorporada
21
32
por las componentes operacional y sanitaria de la eficiencia unificada sobre las
eficiencias operacional y sanitaria respectivamente, no alcanzan ni el valor de la
ineficiencia operacional, ni el valor de la ineficiencia sanitaria, establecido por las
funciones objetivo de ambas eficiencias para este sistema sanitario. Por lo tanto, la
mejora no es capaz de absorber ninguna de las dos ineficiencias al completo, y eso da
lugar a una eficiencia unificada por debajo de las otras dos.
- Extremadura.
En el caso del servicio sanitario de la CA de Extremadura, cuenta con eficiencia
operacional pero no con eficiencia sanitaria (0.926), lo que da lugar a la falta de
eficiencia unificada (0.938) (ver tabla I). Los ajustes necesarios para situarse en la
frontera eficiente cuando estudiamos la eficiencia en la gestión de los recursos para
alcanzar un nivel adecuado de output no-deseable en el servicio sanitario de
Extremadura, es decir, cuando se pretenden alcanzar la eficiencia sanitaria, deben, con
el mismo nivel de inversión en gasto sanitario por habitante protegido, aumentar más de
un 18% el porcentaje de gasto destinado a conciertos y un 13,7% los destinados a
formación de residentes. Aun así, no se alcanza la eficiencia sanitaria si no se diminuye
la tasa de mortalidad en casi 40 personas por cada 100.000 habitantes (ver anexo II). A
estos niveles, el sistema sanitario extremeño se sitúa en la frontera que marcan las
funciones de producción de la DMUs eficientes en el caso de la eficiencia sanitaria.
Los ajustes que se requieren para conseguir la eficiencia unificada, son similares a los
que se requieren para alcanzar la eficiencia sanitaria (ver anexo III). A esos niveles de
inputs y output no-deseable, el servicio sanitario de Extremadura se sitúa en las
fronteras superior e inferior que marcan las funciones de producción unificadamente
eficientes.
No obstante, de nuevo se debe tener en cuenta que los DTS son crecientes por lo que un
incremento de los inputs da lugar a un incremento más que proporcional de los outputs,
lo que puede proporcionar un efecto contrario al pretendido para alcanzar la eficiencia.
Ello implica que se hace necesario aplicar unas políticas de ajuste y mejora de la
eficiencia aparte de los ajustes sobre las variables estudiadas propuestos.
La falta de eficiencia sanitaria es superior a la mejora incorporada por el estudio
unificado de la eficiencia a través de sus componentes operacional y sanitaria, por tanto,
aunque se absorbe parte de la ineficiencia sanitaria al realizar un estudio unificado de la
eficiencia, no lo hace en su totalidad, y sitúa a la eficiencia unificada por encima de la
sanitaria, sin conseguir llegar a ser unificadamente eficiente.
- Galicia.
El sistema sanitario de la CA de Galicia no cuenta ni con eficiencia operacional (0.980),
ni con eficiencia sanitaria (0.873), y por ende, tampoco con eficiencia unificada (0.878)
(ver tabla I). Se observa, de nuevo, que la falta de eficiencias operacional y sanitaria,
impide la existencia de eficiencia unificada.
Para alcanzar la eficiencia operacional el sistema sanitario de Galicia debe reducir el
gasto sanitario por habitante protegido únicamente en algo más de 27€ y conseguir, con
la misma distribución de los recursos que realiza actualmente entre conciertos,
formación de residentes y atención directa a los ciudadanos, un leve incremento de
apenas 0.24% de la esperanza de vida (ver anexo I). Con estos ligeros ajustes, el sistema
sanitario gallego tiene una dimensión adecuada que le permite situarse en la frontera
marcada por las funciones de producción de las DMUs operacionalmente eficientes.
22
33
La eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por habitante
protegido en más de 150€, a la vez que aumenta la proporción de ellos que destina a
conciertos (11,45%) y a formación de residentes (0.97%). Aun a esos niveles de inputs,
este servicio sanitario requiere de una disminución de la tasa de mortalidad por cada
100.000 habitantes de casi 47 personas (ver anexo II). A esas cotas, el sistema sanitario
gallego gestiona sus recursos con eficiencia sanitaria y se sitúa en la frontera marcada
por las funciones de producción de las DMUs sanitariamente eficientes.
La proyección hacia la frontera superior marcada por las funciones de producción de
aquellos servicios sanitarios que cuentan con eficiencia unificada implica los mismos
ajustes que los propuestos para alcanzar la eficiencia operacional. Para situarse en la
frontera inferior de las DMUs que cuentan con eficiencia unificada, los niveles de inputs
y output-bad deben sufrir los mismos ajustes que se requieren para conseguir la
eficiencia sanitaria (ver anexo III). Estas coincidencias se explican porque la proyección
del valor eficiente está marcada por dos vectores convergentes en el mismo punto
proyectado y que proporcionan un margen espacial desde el que se puede converger
hacia dicho punto.
Debe tenerse en cuenta, que la tasa RTS es decreciente tanto cuando se estudia la
eficiencia operacional como cuando se estudia la eficiencia unificada, lo que implica
que la disminución de los inputs propuesta, da lugar a una disminución menos que
proporcional del output-good o deseable, pero disminución al fin y al cabo, y contrario
al ajuste al alza propuesto. La tasa DTS, en cambio, tanto cuando se estudia la eficiencia
sanitaria como unificada es creciente lo que implica que un incremento de los inputs
provoca un incremento más que proporcional de los outputs, contraria, de igual forma, a
los ajustes indicados.
En este caso, se observa que la eficiencia unificada es inferior a la eficiencia
operacional pero superior a la eficiencia sanitaria. Ello se debe a que la mejora en la
eficiencia incorporada por las componentes operacional y sanitaria de la eficiencia
unificada, se encuentra por debajo de la ineficiencia sanitaria y al mismo nivel de la
ineficiencia operacional, lo que permite a la eficiencia unificada absorber en su totalidad
la ineficiencia operacional pero no la ineficiencia sanitaria (ver tabla II).
- Madrid.
En el caso del sistema sanitario público de la CA de Madrid, se comporta de manera
eficiente tanto a nivel operacional, como sanitario y unificado (ver tabla I). Este sistema
sanitario, consigue con los recursos invertidos y la distribución que realiza de ellos, un
buen nivel de esperanza de vida y un nivel aceptable de índice de mortalidad (ver
anexos I, II y III). El hecho de contar con ambas eficiencias implica lógicamente su falta
de ineficiencia por lo que el estudio conjunto de ambas, no da lugar a mejora alguna
(ver tabla II).
- Murcia.
El sistema sanitario murciano alcanza la eficiencia operacional aunque no la eficiencia
sanitaria (0.858). Esta falta de eficiencia sanitaria impide la falta de eficiencia unificada
(0.882) (ver tabla I).
Los ajustes necesarios para alcanzar la eficiencia sanitaria (ver anexo II) consisten en
incrementa la proporción de los gastos destinados a formación de residentes en más de
un 150% (aunque el aumento en términos absolutos sea de algo más del 1%). Con este
ajuste no se consigue la eficiencia operacional, debe acompañarse de la disminución de
la tasa de mortalidad de 26 personas por cada 100.000 habitantes. A estos niveles, el
23
34
sistema sanitario de Murcia se sitúa en la frontera marcada por las funciones de
producción de las DMUs que trabajan a un nivel de eficiencia sanitaria.
Este sistema sanitario, se sitúa en la frontera superior marcada por las funciones de
producción de las DMUs que cuentan con eficiencia unificada, no así en la inferior, para
lo que requiere unos ajustes similares a los propuestos para alcanzar la eficiencia
sanitaria (ver anexo III). Como se ha dicho previamente, esta coincidencia deriva del
hecho de que el punto proyectado sobre la frontera eficiente viene marcado por dos
vectores que delimitan un área desde la que se puede converger para alcanzar la
eficiencia.
Nuevamente decir que hay que ser consciente de la tasa de variabilidad, tanto para la
eficiencia sanitaria como unificada, de los DTS es creciente, lo que implica que un
incremento en algún input provoca un incremento más que proporcional en el output (en
este caso no-deseable), lo que afecta de forma negativa a la consecución del objetivo de
eficiencia que pretendemos. Ello implica que se requieren una serie de políticas
adicionales donde se incida en variables al margen de las estudiadas en este trabajo.
La eficiencia unificada tiene un valor inferior a la eficiencia operacional y superior a la
eficiencia sanitaria. Ello se debe a que la mejora incorporada por las componentes
separables de las eficiencias operacional y sanitaria unificadas sobre sus respectivas
eficiencias, es superior a la ineficiencia operacional que en este caso es inexistente y por
tanto no requiere mejora, e inferior a la ineficiencia sanitaria, con lo que no es capaz de
absorberla en su totalidad (ver tabla II).
- Navarra.
La CA de Navarra, es también una CA que gestiona sus recursos de forma eficiente
tanto desde el punto de vista operacional, sanitario como unificado (ver tabla I). La
inversión pública que hace por habitante protegido y el uso de la misma que realiza,
consigue llegar a unos niveles de esperanza de vida y tasa de mortalidad que sitúan al
servicio sanitario de esta CA en las fronteras marcadas por las funciones de producción
de las DMUs eficientes, por lo que no se requiere ningún tipo de ajuste (ver anexos I, II
y III). El estudio unificado de las eficiencias no implica mejora alguna de la misma al
no contar de forma independiente con ningún tipo de ineficiencia (ver tabla II). Las
funciones objetivo en ambos casos son cero por lo que el estudio conjunto de ambas no
provoca variación alguna en la eficiencia unificada.
- País Vasco.
El servicio sanitario del País Vasco está sobre dimensionado por lo que no alcanza la
eficiencia operacional (0.880), aunque si la sanitaria. El hecho de no contar con
eficiencia operacional implica la falta de eficiencia unificada (0.900). Para llegar
trabajar a un nivel de eficiencia operacional, este sistema sanitario debe disminuir el
gasto sanitario por habitante protegido en 250€, lo que supone una reducción de un
15%, a la ver que reduce la proporción de dicho gasto destinado a la formación de
residentes en casi un 7%. Estas medidas de ajustes no son efectivas, si no van
acompañadas de un leve incremento de la esperanza de vida del 0,12% (ver anexo I). A
estos niveles, el servicio sanitario del País Vasco se sitúa en la frontera marcada por las
funciones de producción de los servicios sanitarios que cuentan con eficiencia
operacional.
La eficiencia unificada, se consigue a través de los mismos ajustes que los propuestos
para la eficiencia operacional. Si observamos el anexo III, este servicio sanitario no
requiere ajustes para situarse en la frontera inferior, sólo los requiere para situarse en la
24
35
frontera superior y conseguir trabajar a un nivel de eficiencia unificada. Esta
coincidencia en los ajustes, se reitera, por la existencia de un área de convergencia hacia
los puntos proyectados en las fronteras superior e inferior marcados por las funciones de
producción de las DMUs eficientes.
Tanto para la eficiencia operacional como para la unificada, la tasa RTS es decreciente.
Esto implica que la disminución propuesta de los inputs, provocan una disminución
menos que proporcional de los outputs, pero en ningún caso un incremento como el
necesario para alcanzar el nivel de eficiencia.
En este caso la eficiencia unificada es superior a la eficiencia operacional e inferior a la
eficiencia sanitaria. Ello es debido a que la mejora introducida por las componentes
operacional y sanitaria de la eficiencia unificada sobre sus respectivas ineficiencias
operacional y sanitaria, es menor que la ineficiencia operacional por lo que es incapaz
de absorber ese nivel de ineficiencia, y aunque la mejora a nivel unificado, no la elimina
(ver tabla II). La ineficiencia sanitaria es nula, por lo que no necesita mejora.
- La Rioja.
En el caso del servicio sanitario de La Rioja, no tiene ni eficiencia operacional (0.924),
ni sanitaria (0.937) y por ende no tiene eficiencia unificada (0.884) (ver tabla I). Este
servicio sanitario se encuentra sobre dimensionado (ver anexo I). Para alcanzar la
eficiencia operacional, debe diminuir el gasto sanitario por habitante protegido en casi
un 12%, a la vez que reduce ligeramente los gastos destinados a la atención directa a los
ciudadanos (0.32%). Al mantener la esperanza de vida al nivel actual y ajustar los inputs
tal como se indica, esta organización consigue trabajar a un nivel operacionalmente
eficiente y situarse en la frontera de producción de las DMUs eficientes.
Para conseguir la eficiencia sanitaria, en cambio, se requiere el incremento de la
proporción de gastos destinados a conciertos (2,96%) y a formación de residentes en
(27,27%). Estos ajustes deben ir acompañados de una disminución de la tasa de
mortalidad por cada 100.000 habitantes de algo más del 3% para alcanzar la eficiencia
sanitaria (ver anexo II). A estos niveles el servicio sanitario de La Rioja se sitúa en la
frontera eficiente marcada por las funciones de producción de las DMUs sanitariamente
eficientes.
Los ajustes necesarios para situar al servicio sanitario riojano en la frontera inferior
marcada por las funciones de producción de las entidades que tienen eficiencia
unificada serán los mismos que los propuestos para alcanzar la eficiencia sanitaria (ver
anexo III). Nuevamente, se debe a que el punto proyectado en la frontera eficiente está
marcado por dos vectores que delimitan el área de convergencia desde donde deben
trasladarse los inputs y output-bad, y en el que se encuentran las funciones de
producción tanto cuando tratamos los datos desde el punto de vista de la eficiencia
sanitaria como unificada. Para alcanzar la eficiencia operacional o conseguir la
eficiencia operacional de la vertiente unificada de la eficiencia no se requieren ajustes,
por encontrarse en la frontera superior.
Hay que tener en cuenta que la tasas RTS es decreciente tanto si se estudia la eficiencia
operacional como unificada, lo que implica que la disminución propuesta en el input da
lugar a una disminución menos que proporcional del output, pero en definitiva a una
disminución y no un incremento como se recomienda. La tasa DTS, es creciente, tanto
para el estudio sanitario como unificado de la eficiencia, lo que complica aún más el
problema ya que el incremento recomendado para alcanzar el punto proyectado de la
frontera eficiente, provoca un incremento más que proporcional del output, en lugar de
25
36
la disminución recomendada. Todo esto implica que deben incluirse otras políticas de
ajustes que permitan la mejora de las eficiencias.
La eficiencia unificada se encuentra por debajo tanto del la eficiencia operacional como
de la sanitaria. Esto se debe a que la mejora introducida por las componentes
operacional y sanitaria de la ineficiencia unificada sobre sus respectivas ineficiencias
tratadas de forma independiente, no alcanzan el nivel de ineficiencia ni operacional ni
sanitario (ver tabla II), por lo que el tratamiento unificado de las eficiencias no es capaz
de absorber ninguna de las dos ineficiencias independientes, lo que afecta de forma
negativa al tratamiento unificado de las eficiencias en relación a las eficiencias
operacional y sanitaria.
- Ceuta.
Nuevamente la ciudad autónoma de Ceuta no cuenta ni con eficiencia operacional
(0.914), ni con eficiencia sanitaria (0.815), y por consiguiente ni con eficiencia
unificada (0.774) (ver tabla I). Para alcanzar la eficiencia operacional, el servicio
sanitario de Ceuta, manteniendo el nivel de gasto sanitario por habitante protegido que
tiene actualmente debe reducir levemente (0.75%) el gasto sanitario que destina
directamente a la atención de los ciudadanos a la vez que incrementa la esperanza de
vida (2.25%). Con estos niveles de inputs y output deseable, el sistema sanitario de
Ceuta se sitúa en la frontera marcada por las funciones de producción de las DMUs
operacionalmente eficientes.
La eficiencia sanitaria se consigue si se incrementan los gastos destinados a formación
de residentes en más de un 87% (disminución absoluta de 0,72%). Aun así, con estos
niveles de inputs no se consigue la eficiencia sanitaria, es necesario disminuir la tasa de
mortalidad por cada 100.000 habitantes en más de 92 personas (casi 16%) (ver anexo
II). Con esa proyección, el sistema sanitario de Ceuta se sitúa en la frontera marcada por
las funciones de producción de las entidades sanitariamente eficientes.
Nuevamente, los ajustes necesarios para alcanzar la eficiencia unificada, son similares a
los propuestos para alcanzar la eficiencia operacional y sanitaria y situar los niveles de
inputs y outputs de la eficiencia unificada en las fronteras superior e inferior de las
entidades que trabajan con una eficiencia unificada (ver anexo III).
En este caso la tasa RTS tanto a nivel operacional como unificado es decreciente, lo que
significa que una variación de los inputs provoca una variación del output deseable
menos que proporcional pero en el mismo sentido, lo cual no se ajusta a las necesidades
requeridas para alcanzar la eficiencia. La tasa DTS tanto para la eficiencia sanitaria
como para la unificada es creciente, lo que significa que una variación de los inputs
provoca una variación más que proporcional en el mismo sentido del output-bad, lo que
empeora el problema, al requerir el ajuste un incremento del input y una disminución
del output no-deseable.
La eficiencia unificada se encuentra por debajo tanto de la eficiencia operacional como
de la sanitaria. Ello se justifica porque la mejora introducida por las componentes
operacional y sanitaria de la eficiencia unificada, con respecto a sus respectivas
eficiencias, no es suficiente para superar la ineficiencia operacional que nos da la
función objetivo de la eficiencia operacional, ni tampoco para absorber la falta de
eficiencia sanitaria que nos marca la función objetivo de la eficiencia sanitaria (ver tabla
II).
- Melilla.
26
37
Melilla es la única de las dos ciudades autónomas que cuenta con un servicio sanitario
que consigue eficiencia operacional, eficiencia sanitaria y por lo tanto eficiencia
unificada (ver tabla I). Se sitúa en la frontera superior marcada por las funciones de
producción de las entidades eficientes para alcanzar un nivel de esperanza de vida
adecuado, en la frontera inferior marcadas por las funciones de producción eficientes
cuando se valora la eficiencia sanitaria y consigue situar la tasa de mortalidad a unos
niveles eficientes. Además para determinar la eficiencia unificada su función de
producción, junto con el resto de DMUs eficientes, marcan las fronteras superior e
inferior para alcanzar los niveles de outputs deseable y no-deseable cuando el estudio se
realiza de forma unificada, por lo que en ningún caso se precisa ningún tipo de ajuste
(ver anexos I, II y III). La falta de ineficiencias cuando se analizan las eficiencias
operacional y sanitaria por separado, da lugar a que no se requiera mejora alguna de las
eficiencia cuando el estudio se realiza de forma unificada (ver tabla II).
5. CONCLUSIONES
A lo largo del trabajo hemos llegado a una serie de conclusiones tanto a nivel teórico
como aplicadas a la eficiencia de los servicios sanitarios autonómicos.
Con respecto a las primeras concluimos en primer lugar que la eficiencia unificada es
superior a la eficiencia operacional e inferior la eficiencia sanitaria, siempre y cuando la
suma de la pérdida de ineficiencia operacional cuando se trata de forma unificada en
lugar de independiente y la pérdida de ineficiencia sanitaria cuando se trata de forma
unificada en lugar de independiente es menor a la ineficiencia sanitaria y superior a la
ineficiencia operacional.
En segundo lugar, la eficiencia unificada es mayor que la eficiencia sanitaria y menor
que la eficiencia operacional, siempre y cuando la suma de la pérdida de ineficiencia
operacional cuando se trata de forma unificada en lugar de independiente y la pérdida de
ineficiencia sanitaria cuando se trata de forma unificada en lugar de independiente, es
mayor o igual a la ineficiencia operacional y menor o igual a la ineficiencia sanitaria.
En tercer lugar, la eficiencia unificada es menor o igual a la eficiencia sanitaria, siempre
y cuando la diferencia entre la ineficiencia sanitaria y su vertiente unificada, añadida a
la diferencia entre la ineficiencia operacional y su vertiente unificada es menor o igual a
la ineficiencia operacional.
Y por último, la eficiencia unificada es menor o igual a la eficiencia operacional,
siempre y cuando el descenso de la ineficiencia operacional cuando se trata dentro de la
eficiencia unificada en lugar de independiente unido al descenso de la ineficiencia
sanitaria cuando se trata dentro de la eficiencia unificada en lugar de independiente, es
menor o igual a la ineficiencia sanitaria.
En el estudio que hemos realizado los sistemas sanitarios de las diecinueve autonomías
pueden agruparse en cinco bloques:
El primero de ellos, está formado por siete sistemas sanitarios que cuentan tanto con
eficiencia operacional, eficiencia sanitaria y eficiencia unificada. Este grupo lo
componen los servicios sanitarios de Aragón, Cantabria, Castilla-León, Cataluña,
Madrid, Navarra y Melilla. En todos ellos, la falta de ineficiencia tanto operacional
como sanitaria, motiva que se alcance la eficiencia unificada. Los servicios sanitarios de
estas CAs destinan un nivel de recursos públicos por habitante protegido y los
distribuye de forma correcta para conseguir unos niveles de esperanza de vida y una tasa
de mortalidad ajustada por la edad por cada 100.000 habitantes adecuados, y así situarse
en las fronteras eficientes superior e inferior, marcadas por las funciones de producción
27
38
eficientes, tanto cuando el estudio de las eficiencias se realiza de forma independiente,
como cuando se realiza de forma unificada.
El segundo grupo estaría formado por cuatro sistemas sanitarios que cuentan con
eficiencia operacional pero no con eficiencia sanitaria. En todos ellos, los niveles de
eficiencia unificada son inferiores a los niveles de eficiencia operacional y superiores a
los niveles de eficiencia sanitaria. Estamos hablando de los sistemas sanitarios de
Andalucía, Islas Baleares, Extremadura y Murcia. En estos casos la mejora incorporada
por las componentes operacional y sanitaria cuando el estudio se realiza de forma
unificada, es lo suficientemente grande como para superar la ineficiencia operacional
(que no existe), pero no lo es como para superar la ineficiencia sanitaria. Esto es así,
porque la reducción de ineficiencia operacional cuando ésta se estudia de forma
unificada y añadida a la reducción de la ineficiencia sanitaria cuando ésta se estudia de
forma unificada, es decir, la mejora que incorpora el estudio unificado de ambas
eficiencias, es inferior a la ineficiencia sanitaria y superior a la ineficiencia operacional
lo cual es evidente en este último caso ya que al contar con eficiencia operacional el
nivel de ineficiencia operacional es cero. En estos casos se recomiendan una serie de
proyecciones hacia la frontera inferior cuando se habla de eficiencia sanitaria y cuando
se habla de eficiencia unificada, frontera marcada por las funciones de producción de las
DMUs eficientes, proyecciones que implican además de la reducción del output nodeseable, el aumento de los inputs. En todos los casos las tasas DTS son crecientes, lo
que da lugar a que una variación de los inputs da lugar a un aumento más que
proporcional de los outputs en el mismo sentido. Esto va en contra de los ajustes
propuestos que proponen un incremento de los inputs acompañado de una disminución
del output-bad, por lo que la mejora de la eficiencia sanitaria debería llevarse a cabo a
través de una serie de políticas encaminadas a mejorar la eficiencia de los inputs como
podrían ser la mejora tecnológica, el incremento de la productividad de los
profesionales dedicados a la atención sanitaria directa, etc.
El tercer grupo lo conforma únicamente el sistema sanitario de la CA de Galicia cuya
eficiencia unificada se encuentra, igual que en el caso anterior por debajo de la
eficiencia operacional y por encima de la eficiencia sanitaria, pero no cuenta con
ninguna de ellas cuando el estudio se hace de forma independiente. No obstante, el
estudio unificado de las eficiencias incorpora una mejora de la eficiencia sobre la
eficiencia sanitaria y un empeoramiento de la misma sobre la eficiencia operacional al
encontrarse el margen de mejora de las componentes de las ineficiencias operacional y
sanitaria unificadas al mismo nivel de ineficiencia operacional y por debajo del nivel de
ineficiencia sanitaria. Por ello, se requiere de la aplicación de otra serie de políticas
encaminadas a la mejora de la eficiencia en la gestión de los recursos públicos
destinados a sanidad donde intervengan otras variables que escapan a este estudio, como
podría ser la mejora tecnológica, o el abaratamiento de los gastos sanitarios directos que
absorben la mayoría de los recursos públicos invertidos a través, por ejemplo, de la
reducción del gasto farmacéutico o de convenios con los laboratorios, o de mejora de la
productividad del personal sanitario.
El cuarto grupo estaría formado por los sistemas sanitarios de tres CAs que cuentan con
eficiencia sanitaria pero no operacional. Estos sistemas sanitarios son los de las CAs de
Asturias, Canarias y País Vasco. En este caso la eficiencia unificada es inferior a la
eficiencia sanitaria y superior a la eficiencia operacional. Ello se debe a que el margen
de mejora que incorporan las componentes unificadas de las eficiencias operacional y
sanitaria de forma conjunta al estudiar la eficacia unificada en relación a las
ineficiencias operacional y sanitaria, es mayor que la ineficiencia sanitaria e inferior a la
28
39
ineficiencia operacional. Desde el punto de vista de la mejora de las eficiencias, al no
existir en este grupo ineficiencia sanitaria no es posible reducirla, por lo que el estudio
unificado de la eficiencia, mejora desde el punto de vista operacional pero empeora
desde el punto de vista sanitario. En este caso las políticas que deben aplicarse deben
basarse fundamentalmente en la mejora de la productividad en aras a dimensionar mejor
la organización, para que realice un uso más eficiente de los recursos y obtenga con los
mismos o menores inputs una cantidad adecuada de output-good. Entre estas medidas
podrían encontrarse la mejora de la productividad del personal sanitario como a través
de políticas de objetivos o incentivos, o la rebaja en los gastos farmacéuticos con
medidas de gestión de inventario, convenios con laboratorios o subastas de
medicamentos, y de estructura como la revisión de contratos energéticos (luz, teléfono,
etc.).
El quinto grupo está formado cuatro sistemas sanitarios, los de Castilla-La Mancha,
Comunidad Valenciana, La Rioja y Ceuta, ninguno de ellos tiene eficiencia operacional
ni eficiencia sanitaria. En este caso la eficiencia unificada es inferior a ambas eficiencias
independientes, ello se debe a que los márgenes de mejora en la eficiencia por parte de
las componentes operacional y sanitaria de la eficiencia unificada sobre sus respectivas
eficiencias, no alcanzan ni el nivel de ineficiencia operacional ni el de ineficiencia
sanitaria, por lo que no es posible que la mejora incorporada por la eficiencia unificada
sea capaz de absorber ninguno de ellos.
Excepto en el primero de los grupos, que no lo requiere, para el resto de servicios
sanitarios se recomiendan una serie de ajustes con la intención de alcanzar la eficiencia,
no obstante, dichos ajustes conllevan unas tasas de rendimientos a escala para los
outputs deseables y unas tasas de daños a escala para los outputs no-deseables, que
suponen una variabilidad creciente, decreciente o constante de las variables, pero en el
mismo sentido para los inputs y los outputs, lo que va en contra de los ajustes
propuestos para alcanzar los diferentes tipos de eficiencia, lo que hace necesario aplicar
otro tipo de políticas económicas o de gestión que permitan la mejora de la eficiencia.
En definitiva, la eficiencia de las organizaciones en la gestión de sus recursos, estudiada
de forma independiente en función de que los outputs sean deseables o no-deseables y
estudiada de forma unificada teniendo en cuenta las variaciones necesarias de todos los
tipos de outputs, puede ser explicada en base a la ineficiencia en la gestión de los
recursos.
BIBLIOGRAFIA
ALÍ, A. I. y SEIFORD, L. M. (1993): “The mathematical programming approach to
efficiency analysis”. H. O. FRIED, C.A.K. LOVELL, S.S. SCHMIDT (eds.), en The
measurement of productive efficiency, Oxford University Press, New York.
CAMPOS LUCENA, M.S. & VELASCO MORENTE F. (2013) “The efficiency of Public
Television in Spain: Application of the DEA Measurement Model”, Revista de Ciencias
Sociales, 19 (2), 363-378.
COELLI, T., (1996): “A guide to DEAP 2.1. A data envelopment analysis (computer)
program”, CEPA Working Paper 96/8, Department of Econometrics, University of New
England, Armidale, disponible en http://www.owlnet.rice.edu/~econ380/DEAP.PDF.
COELLI, T. (1998): “A multi-stage methodology for the solution of orientated DEA
models”. Operations Research Letters, 23, 143-149 .
29
40
COOPER, W., SEIFORD, L. M. y KAROU, T. (2007): “Data envelopment analysis. A
comprehensive text with Models, Applications, References and DEA-solver software”.
Springer, New York.
FARRELL, M. J. (1957): “The measurement of productive efficiency”. Journal of the Royal
Statistical Society (A), 120, 3, 253-290.
GONZÁLEZ RODRÍGUEZ, M.R., VELASCO MORENTE, F. Y GONZÁLEZ
ABRIL, L. (2010): “La eficiencia del sistema de protección social español en la reducción de la pobreza”.
Papeles de población, 16, 64, 123-154.
INCLASNS (2012): Base de datos de Indicadores Clave del Servicio Nacional de Salud del
año
2012,
http://www.msssi.gob.es/estadEstudios/estadisticas/sisInfSanSNS/inclasSNS_DB.htm
KOOPMANS T. C., (1951): “Efficient allocation of resources”. Econometrica, 19, 4,
455-465.
LOWELL, C. A. K., y MUÑIZ, M. (2003): “Eficiencia y productividad en el sector público: temas
dominantes en la literatura”. Papeles de Economía Española, 95, 47-65.
RAMANATHAN, R. (2003): “An Introduction to Data Envelopment Analysis. A Tool For
Performance Measurement”. Sage Publications.
SMITH, P. y M. GODDARD, (2003): “Los indicadores de gestión en el sector público: fortaleza y
debilidades”. Papeles de Economía Española, núm. 95, 35-46.
SUEYOSHI, T & GOTO, M. (2011) “Measurement of Returns to Scale and Damages to
Scale for DEA-based operational and environmental assessment: How to manage
desirable (good) and undesirable (bad) outputs?”, European Journal of Operational
Research 211, 76-89.
30
41
ANEXO I: EFICIENCIAS OPERACIONALES, PROYECCIONES.
EOP
INPUT
1
PROY.
INPUT
1
Dif.
%
INPU
T
2
PROY
.
INPU
T
2
Dif.
%
INPU
T
3
PROY
.
INPU
T
3
Andalusia
1
1.184,14
1.184,14
0,00
0,00%
4,73
4,73
0,00
0,00%
2,08
2,08
Aragon
1
1.609,50
1.609,50
0,00
0,00%
3,99
3,99
0,00
0,00%
1,38
1,38
0,759 1.641,19
1.271,63
369,56
22,52
%
7,19
7,19
0,00
0,00%
1,65
1,58
nº
CCAA
1
2
3
Asturias
4
Balearic
Islands
5
Canary
Islands
6
Cantabria
1
7
Castile-Leon
1
8
Castile-La
Mancha
9
Catalonia
1
0
1
1
1
2
1
3
1
4
1
5
1
6
1
7
1
Valencian
Community
Extremadura
Galicia
1.180.54
1.180.54
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
1,27
0,846 1.354,67
1
1.183,57
171,10
12,63
%
10,47
9,09
1,38
13,16
%
1,52
1,26
1.341,19
1.341,19
0,00
0,00%
4,50
4,50
0,00
0,00%
2,58
2,58
1.387,27
1.387,27
0,00
0,00%
5,07
5,07
0,00
0,00%
1,98
1,98
0,910 1.512,34
1.324,83
187,51
12,40
%
6,74
6,74
0,00
0,00%
1,77
1,66
1.380,87
1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,936 1.361,70
1
1.328,75
32,95
2,42%
6,58
6,58
0,00
0,00%
1,58
1,58
1.625,03
1.625,03
0,00
0,00%
4,29
4,29
0,00
0,00%
1,32
1,32
0,980 1.337,83
1
1.310,21
27,62
2,06%
5,63
5,63
0,00
0,00%
1,78
1,78
Madrid
1
1.371,83
1.371,83
0,00
0,00%
8,48
8,48
0,00
0,00%
2,20
2,20
Murcia
1
1.622,13
1.622,13
0,00
0,00%
7,18
7,18
0,00
0,00%
0,69
0,69
Navarra
1
1.574,64
1.574,64
0,00
0,00%
7,60
7,60
0,00
0,00%
1,42
1,42
0,880 1.661,47
1.412,04
249,43
6,96
6,96
0,00
0,00%
1,70
1,59
Rioja, La
0,924 1.487,94
1.311,87
176,07
Ceuta
0,914 1.550,41
1.550,41
0,00
Basque
Country
15,01
%
11,83
%
0,00%
7,34
7,34
0,00
0,00%
1,54
1,54
6,30
6,30
0,00
0,00%
0,82
0,82
31
Dif.
0,0
0
0,0
0
0,0
7
0,0
0
0,2
6
0,0
0
0,0
0
0,1
1
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,1
1
0,0
0
0,0
%
INPU
T
4
PROY
.
INPU
T
4
0,00%
92,26
92,26
0,00%
93,43
93,43
4,07%
90,91
90,15
0,00%
88,09
88,09
16,80
%
87,85
87,85
0,00%
92,53
92,53
0,00%
92,76
92,76
6,38%
89,97
89,97
0,00%
72,22
72,22
0,00%
91,11
90,80
0,00%
91,46
91,46
0,00%
91,70
91,70
0,00%
90,03
90,03
0,00%
88,91
88,91
0,00%
85,74
85,74
6,72%
87,89
87,89
0,00%
89,67
89,39
0,00%
91,93
91,24
Dif.
%
0,0
0
0,0
0
0,7
6
0,0
0
0,00
%
0,00
%
0,84
%
0,00
%
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,3
1
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,2
8
0,6
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,34
%
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,32
%
0,75
OUTPU
T
Good
PROY.
OUTPU
T
Good
Dif.
%
81,03
81,03
0,00
0,00%
82,57
82,57
0,00
0,00%
81,35
83,01
1,66
-2,03%
82,71
82,71
0,00
0,00%
81,76
82,71
0,95
-1,16%
82,58
82,58
0,00
0,00%
83,38
83,38
0,00
0,00%
82,97
82,97
0,00
0,00%
82,77
82,77
0,00
0,00%
81,89
82,97
1,08
-1,32%
81,82
81,82
0,00
0,00%
82,21
82,41
0,20
-0,24%
84,05
84,05
0,00
0,00%
81,99
81,99
0,00
0,00%
83,84
83,84
0,00
0,00%
82,80
82,90
0,10
-0,12%
83,11
83,11
0,00
0,00%
79,54
81,33
-
-2,25%
42
8
1
9
Melilla
1
1.585,28
1.585,28
0,00
0,00%
5,16
5,16
0,00
0,00%
0,68
0,68
0
0,0
0
0,00%
93,98
93,98
9
0,0
0
%
0,00
%
1,79
80,00
80,00
0,00
0,00%
ANEXO II: EFICIENCIA SANITARIA, PROYECCIONES.
ESan
INPUT
1
PROY.
INPUT
1
Andalusia
Aragon
Asturias
0,788
1
1
1.184,14
1.609,50
1.641,19
1.379,84
1.609,50
1.641,19
-195,70 -16,53%
0,00
0,00%
0,00
0,00%
4
Balearic
Islands
0,725
1.180,54
1.372,05
-191,51 -16,22%
5
Canary
Islands
1
1.354,67
1.354,67
0,00
0,00%
6
Cantabria
1
1.341,19
1.341,19
0,00
0,00%
7
Castile-Leon
1
1.387,27
1.387,27
0,00
8
Castile-La
Mancha
0,966
1.512,34
1.512,34
0,00
9
Catalonia
10
Valencian
Community
nº
CCAA
1
2
3
Dif.
%
PROY.
INPUT
INPUT
2
2
4,73
3,99
7,19
Dif.
PROY.
INPUT
INPUT
3
3
%
Dif.
%
PROY.
INPUT
INPUT
4
4
Dif.
%
PROY.
OUTPUT
OUTPUT
B
B
Dif.
%
5,61
3,99
7,19
-0,88 -18,53%
0,00 0,00%
0,00 0,00%
2,08
1,38
1,65
2,08
1,38
1,65
0,00
0,00
0,00
0,00%
0,00%
0,00%
92,26
93,43
90,91
92,26
93,43
90,91
0,00
0,00
0,00
0,00%
0,00%
0,00%
541,10
469,61
522,64
438,79
469,61
522,64
102,31 18,91%
0,00
0,00%
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
2,17
-0,90
-70,79%
88,09
89,60
-1,51 -1,71%
486,92
414,18
72,74
14,94%
10,47
10,47
0,00
0,00%
1,52
1,52
0,00
0,00%
87,85
87,85
0,00
0,00%
509,37
509,37
0,00
0,00%
4,50
4,50
0,00
0,00%
2,58
2,58
0,00
0,00%
92,53
92,53
0,00
0,00%
477,49
477,49
0,00
0,00%
0,00%
5,07
5,07
0,00
0,00%
1,98
1,98
0,00
0,00%
92,76
92,76
0,00
0,00%
439,52
439,52
0,00
0,00%
0,00%
6,74
7,13
-0,39
-5,75%
1,77
1,88
-0,11
-6,20%
89,97
89,97
0,00
0,00%
456,09
440,29
15,80
3,46%
1
1.380,87
1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
462,59
462,59
0,00
0,00%
0,837
1.361,70
1.447,33
-85,63
-6,29%
6,58
7,05
-0,47
-7,20%
1,58
1,94
-0,36
-22,76%
91,11
91,11
0,00
0,00%
502,34
430,97
71,37
14,21%
11 Extremadura 0,926
1.625,03
1.625,03
0,00
0,00%
4,29
5,08
-0,79 -18,31%
1,32
1,50
-0,18
-13,68%
91,46
91,46
0,00
0,00%
506,48
466,77
39,71
7,84%
12 Galicia
13 Madrid
1.337,83
1.371,83
1.488,57
1.371,83
5,63
8,48
6,27
8,48
-0,64 -11,45%
0,00 0,00%
1,78
2,20
1,80
2,20
-0,02
0,00
-0,97%
0,00%
91,70
90,03
91,70
90,03
0,00
0,00
0,00%
0,00%
487,68
412,98
440,80
412,98
46,88
0,00
9,61%
0,00%
0,873
1
-150,74 -11,27%
0,00
0,00%
32
43
14 Murcia
15 Navarra
0,858
1
1.622,13
1.574,64
Basque
16
Country
1.622,13
1.574,64
0,00
0,00
0,00%
0,00%
7,18
7,60
7,18
7,60
0,00
0,00
0,00%
0,00%
0,69
1,42
1,74
1,42
-1,05 -152,90%
0,00
0,00%
88,91
85,74
88,91
85,74
0,00
0,00
0,00%
0,00%
497,90
422,87
471,91
422,87
25,99
0,00
5,22%
0,00%
1
1.661,47
1.661,47
0,00
0,00%
6,96
6,96
0,00
0,00%
1,70
1,70
0,00
0,00%
87,89
87,89
0,00
0,00%
463,26
463,26
0,00
0,00%
17 Rioja, La
18 Ceuta
19 Melilla
0,937
0,815
1
1.487,94
1.550,41
1.585,28
1.487,94
1.550,41
1.585,28
0,00
0,00
0,00
0,00%
0,00%
0,00%
7,34
6,30
5,16
7,56
6,30
5,16
-0,22
0,00
0,00
-2,96%
0,00%
0,00%
1,54
0,82
0,68
1,96
1,54
0,68
-0,42
-0,72
0,00
-27,27%
-87,65%
0,00%
89,67
91,93
93,98
89,67
91,93
93,98
0,00
0,00
0,00
0,00%
0,00%
0,00%
448,44
581,36
573,06
434,62
489,19
573,06
13,82
92,17
0,00
3,08%
15,85%
0,00%
Dif.
%
Dif.
%
ANEXO III: EFICIENCIAS UNIFICADAS, PROYECCIONES.
EOP
INPUT
1
PROY.
INPUT
1
PROY.
INPUT
INPUT
2
2
Dif.
%
0,824 1.184,14 1.184,14
1
1.609,50 1.609,50
0,799 1.641,19 1.271,63
0,00
0,00
369,56
0,00%
0,00%
22,52%
4,73
3,99
7,19
Balearic
Islands
0,771 1.180,54 1.180,54
0,00
0,00%
5
Canary
Islands
0,872 1.354,67 1.183,57
171,10
6
7
Cantabria
Castile-Leon
0,00
0,00
8
Castile-La
Mancha
9
Catalonia
10
Valencian
Community
nº
CCAA
1
2
3
Andalusia
Aragon
Asturias
4
1
1
1.341,19 1.341,19
1.387,27 1.387,27
0,897 1.512,34 1.324,83
PROY.
INPUT
INPUT
3
3
PROY.
INPUT
INPUT
4
4
PROY.
OUTPUT
OUTPUT
Good
Good
Dif.
%
Dif.
%
4,73
3,99
7,19
0,00
0,00
0,00
0,00%
0,00%
0,00%
2,08
1,38
1,65
2,08
1,38
1,58
0,00
0,00
0,07
0,00%
0,00%
4,07%
92,26
93,43
90,91
92,26
93,43
90,15
0,00
0,00
0,76
0,00%
0,00%
0,84%
81,03
82,57
81,35
81,03
82,57
83,01
0,00
0,00
-1,66
0,00%
0,00%
-2,03%
8,86
8,86
0,00
0,00%
1,27
1,27
0,00
0,00%
88,09
88,09
0,00
0,00%
82,71
82,71
0,00
0,00%
12,63%
10,47
9,09
1,38
13,16%
1,52
1,26
0,26
16,80%
87,85
87,85
0,00
0,00%
81,76
82,71
-0,95
-1,16%
0,00%
0,00%
4,50
5,07
4,50
5,07
0,00
0,00
0,00%
0,00%
2,58
1,98
2,58
1,98
0,00
0,00
0,00%
0,00%
92,53
92,76
92,53
92,76
0,00
0,00
0,00%
0,00%
82,58
83,38
82,58
83,38
0,00
0,00
0,00%
0,00%
0,00%
187,51
12,40%
6,74
6,74
0,00
0,00%
1,77
1,66
0,11
6,38%
89,97
89,97
0,00
0,00%
82,97
82,97
0,00
1.380,87 1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
82,77
82,77
0,00
0,00%
0,811 1.361,70 1.328,75
32,95
2,42%
6,58
6,58
0,00
0,00%
1,58
1,58
0,00
0,00%
91,11
90,80
0,31
0,34%
81,89
82,97
-1,08
-1,32%
11 Extremadura 0,938 1.625,03 1.625,03
0,00
0,00%
4,29
4,29
0,00
0,00%
1,32
1,32
0,00
0,00%
91,46
91,46
0,00
0,00%
81,82
81,82
0,00
0,00%
1
33
44
12
13
14
15
Galicia
Madrid
Murcia
Navarra
0,878
1
0,882
1
1.310,21
1.371,83
1.622,13
1.574,64
27,62
0,00
0,00
0,00
2,06%
0,00%
0,00%
0,00%
5,63
8,48
7,18
7,60
5,63
8,48
7,18
7,60
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
1,78
2,20
0,69
1,42
1,78
2,20
0,69
1,42
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
91,70
90,03
88,91
85,74
91,70
90,03
88,91
85,74
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
82,21
84,05
81,99
83,84
82,41
84,05
81,99
83,84
-0,20
0,00
0,00
0,00
-0,24%
0,00%
0,00%
0,00%
16
Basque
Country
0,900 1.661,47 1.412,04
249,43
15,01%
6,96
6,96
0,00
0,00%
1,70
1,59
0,11
6,72%
87,89
87,89
0,00
0,00%
82,80
82,90
-0,10
-0,12%
0,884 1.487,94 1.311,87
0,774 1.550,41 1.550,41
1
1.585,28 1.585,28
176,07
0,00
0,00
11,83%
0,00%
0,00%
7,34
6,30
5,16
7,34
6,30
5,16
0,00
0,00
0,00
0,00%
0,00%
0,00%
1,54
0,82
0,68
1,54
0,82
0,68
0,00
0,00
0,00
0,00%
0,00%
0,00%
89,67
91,93
93,98
89,39
91,24
93,98
0,28
0,69
0,00
0,32%
0,75%
0,00%
83,11
79,54
80,00
83,11
81,33
80,00
0,00
-1,79
0,00
0,00%
-2,25%
0,00%
Dif.
%
Dif.
%
Dif.
%
Dif.
%
Dif.
%
2,08
1,38
1,65
0,00
0,00
0,00
0,00%
0,00%
0,00%
92,26
93,43
90,91
0,00
0,00
0,00
0,00%
0,00%
0,00%
17 Rioja, La
18 Ceuta
19 Melilla
ESan
1.337,83
1.371,83
1.622,13
1.574,64
INPUT
1
PROY.
INPUT
1
nº
CCAA
1
2
3
Andalusia
Aragon
Asturias
0,824 1.184,14 1.379,84
1
1.609,50 1.609,50
0,799 1.641,19 1.641,19
-195,70 -16,53%
0,00
0,00%
0,00
0,00%
4
Balearic
Islands
0,771 1.180,54 1.372,05
-191,51 -16,22%
5
Canary
Islands
0,872 1.354,67 1.354,67
6
7
Cantabria
Castile-Leon
8
Castile-La
Mancha
9
Catalonia
10
Valencian
Community
11
12
13
14
15
Extremadura 0,938 1.625,03 1.625,03
Galicia
0,878 1.337,83 1.488,57
Madrid
1
1.371,83 1.371,83
Murcia
0,882 1.622,13 1.622,13
Navarra
1
1.574,64 1.574,64
16
Basque
Country
17 Rioja, La
18 Ceuta
PROY.
INPUT
INPUT
2
2
4,73
3,99
7,19
5,61
3,99
7,19
PROY.
INPUT
INPUT
3
3
-0,88 -18,53%
0,00 0,00%
0,00 0,00%
2,08
1,38
1,65
PROY.
INPUT
INPUT
4
4
92,26
93,43
90,91
PROY.
OUTPUT
OUTPUT
B
B
541,10
469,61
522,64
438,79
469,61
522,64
102,31 18,91%
0,00
0,00%
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
2,17
-0,90
-70,79%
88,09
89,60
-1,51 -1,71%
486,92
414,18
72,74
14,94%
0,00
0,00%
10,47
10,47
0,00
0,00%
1,52
1,52
0,00
0,00%
87,85
87,85
0,00
0,00%
509,37
509,37
0,00
0,00%
1.341,19 1.341,19
1.387,27 1.387,27
0,00
0,00
0,00%
0,00%
4,50
5,07
4,50
5,07
0,00
0,00
0,00%
0,00%
2,58
1,98
2,58
1,98
0,00
0,00
0,00%
0,00%
92,53
92,76
92,53
92,76
0,00
0,00
0,00%
0,00%
477,49
439,52
477,49
439,52
0,00
0,00
0,00%
0,00%
0,897 1.512,34 1.512,34
0,00
0,00%
6,74
7,13
-0,39
-5,75%
1,77
1,88
-0,11
-6,20%
89,97
89,97
0,00
0,00%
456,09
440,29
15,80
3,46%
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
462,59
462,59
0,00
0,00%
-85,63
-6,29%
6,58
7,05
-0,47
-7,20%
1,58
1,94
-0,36
-22,76%
91,11
91,11
0,00
0,00%
502,34
430,97
71,37
14,21%
0,00
0,00%
-150,74 -11,27%
0,00
0,00%
0,00
0,00%
0,00
0,00%
4,29
5,63
8,48
7,18
7,60
5,08
6,27
8,48
7,18
7,60
-0,79 -18,31%
-0,64 -11,45%
0,00 0,00%
0,00 0,00%
0,00 0,00%
1,32
1,78
2,20
0,69
1,42
1,50
1,80
2,20
1,74
1,42
-0,18 -13,68%
-0,02 -0,97%
0,00
0,00%
-1,05 -152,90%
0,00
0,00%
91,46
91,70
90,03
88,91
85,74
91,46
91,70
90,03
88,91
85,74
0,00
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
0,00%
506,48
487,68
412,98
497,90
422,87
466,77
440,80
412,98
471,91
422,87
39,71
46,88
0,00
25,99
0,00
7,84%
9,61%
0,00%
5,22%
0,00%
1
1
1
1.380,87 1.380,87
0,811 1.361,70 1.447,33
0,900 1.661,47 1.661,47
0,00
0,00%
6,96
6,96
0,00
0,00%
1,70
1,70
0,00
0,00%
87,89
87,89
0,00
0,00%
463,26
463,26
0,00
0,00%
0,884 1.487,94 1.487,94
0,774 1.550,41 1.550,41
0,00
0,00
0,00%
0,00%
7,34
6,30
7,56
6,30
-0,22
0,00
-2,96%
0,00%
1,54
0,82
1,96
1,54
-0,42
-0,72
-27,27%
-87,65%
89,67
91,93
89,67
91,93
0,00
0,00
0,00%
0,00%
448,44
581,36
434,62
489,19
13,82
92,17
3,08%
15,85%
34
45
19 Melilla
1
1.585,28 1.585,28
0,00
0,00%
5,16
5,16
0,00
0,00%
35
0,68
0,68
0,00
0,00%
93,98
93,98
0,00
0,00%
573,06
573,06
0,00
0,00%
XVI Jornadas de ARCA
46
47
Un análisis de la eficiencia de la UE 27 a través de la huella de carbono con DEA
M.S. Campos Lucenaa, M.T. Sanz Díazb, F. Velasco Morentec, Rocío Yñiguez Ovandob
a
Departamento de Contabilidad y Economía Financiera
b
Departamento de Análisis Económico y Economía Política
c
Departamento de Economía Aplicada
Universidad de Sevilla
{mscampos,mtsanz,velasco,ovando}@us.es
Abstract
Una de las causas del cambio climático son las
emisiones de gases de efecto invernadero, su reducción se ha convertido en uno de los objetivos
prioritarios de la UE-28, a través de políticas medioambientales orientadas a cumplir los objetivos
marcados a nivel internacional. La aportación de
nuestro artículo es la aplicación del DEA (Data
Envelopment Analysis), aplicado a variables inputs y outputs que se pueden considerar aceptables y no aceptables con lo que se puede hacer un
estudio de la eficiencia operacional (inputs y outputs good) y medioambiental (inputs y outputs
bad), de forma individual y conjunta, de los 27
países de la UE, con el objeto de indicar a cada
país el modelo de sus socios europeos más conveniente para mejorar su nivel de eficiencia en la
doble dimensión considerada. Se realiza, además
un estudio de la eficiencia operacional y ambiental de forma unificada. Se analiza la eficiencia
medioambiental de los países de la UE-27 desde
el enfoque consumidor, en el año 2008, por ser el
primer año del compromiso de Kioto, determinando, asimismo los rendimientos y daños a escala de esos países y cuál debe ser su tendencia para
mejorar su eficiencia. Los resultados muestran
que al analizar la eficiencia unificada se reduce el
número de países eficientes (Bulgaria, Alemania,
Francia, Luxemburgo y Malta), en comparación
con el análisis por separado de la eficiencia operacional y medioambiental
Palabras clave: DEA no orientado, eficiencia opera-
cional, eficiencia ambiental, eficiencia unificada
XVI Jornadas de ARCA
48
49
Eco-driving: Energy Saving based on driver behavior
V. Corcoba Magaña and M. Muñoz Organero
Dpto. de Ingeniería Telemática
Universidad Carlos III
[email protected]
1
Introduction
The growth in the number of vehicles in circulation has experienced a strong increase in the last 20 years. Figure 1 captures the number of vehicles since 1970 in US, Australia, and
OCDE. The widespread use of the automobile has had very
positive effects on the economy of the countries. However,
they have also led to major problems due to the pollution produced and the amount of energy required. On the other hand,
most of the vehicles employ hydrocarbons, which are not
available in all regions, causing energy dependencies between countries. In addition, its extraction has a very large
impact on the environment.
The vehicles have become an important problem for governments and residents who suffer from respiratory diseases
caused by greenhouses emissions [Caiazzo et al., 2013]. In
order to avoid these problems, governments have developed
regulations to control the emissions from vehicles. The drivers have also begun to require efficient vehicles due to the
800
600
400
200
0
1970
1980
1982
1984
1986
1988
1990
1992
1994
1996
1998
2000
2002
2004
Number of vehicles
(Millions)
The number of vehicles has grown in recent years.
As a result, it has increased the fuel consumption
and the emission of gaseous pollutants. The emission of gaseous pollutants causes more deaths than
traffic accidents. On the other hand, the energy resources are limited and the increase in demand
causes them even more expensive. In addition, the
percentage of old vehicles is very high. Eco-driving
is a good solution in order to minimize the fuel consumption because it is independent of the vehicle
age. In this paper, a driving assistant is presented.
This solution allows the user acquires knowledge
about eco-driving. Unlike other solutions, our proposal adapts the recommendations to the user profile. It also provides information in advance such as:
optimal average speed, anomalous events, deceleration pattern, and so on. These recommendations prevent that the user performs inefficient actions. In
these type of systems, motivation is very important.
Drivers lose the interest over time. To solve this
problem, we employ gamification techniques that
contribute to avoid drivers coming back to their previous driving habits
increase in fuel prices. Currently, the fuel consumption is a
very important factor to buy a vehicle. All this has caused
manufacturers to introduce improvements in vehicles in order
to minimize the fuel consumption such as: engine optimization, vehicle weight reduction, hybrid engines, and aerodynamic improvements. However, these measures are insufficient because the percentage of older vehicles is still very
high.
Year
N. America/Amér. N.
Australia/Australie-NZ
OECD/OCDE
Figure 1. Number of vehicles since 1970. Source: OCDE.
Number of vehicles
(Mullions)
Abstract
5
4
3
2
1
0
Year of manufacture
Figure 2. Age of vehicles in Spain. Source: DGT.
50
Figure 3. Architecture of Eco-Driving Assistant.
Fuel consumption depends on the vehicle, the environment
and the behavior of the driver. Recently, a method called
"Eco-Driving" has gained popularity. This driving technique
allows us to save fuel. It is based on the optimization of the
parameters that the user controls such as: speed, acceleration,
deceleration and gear. Fuel saving is achieved by minimizing
the energy losses. This method to improve fuel consumption
and reduce the emission of greenhouse gases is very useful
because it is independent of the vehicle technology. However, the driver needs to know about efficient driving rules.
This paper is focused on the need to learn how to drive
efficiently following a set of rules, based on physics, which
reduce unnecessary energy demands. In this work, we propose the use of an assistant who evaluates the driver behavior
from the point of view of efficiency, and recommends improvements in order to save fuel. Furthermore, unlike other
proposals, the system provides information about the nearby
environment. Therefore, the user can take decisions in advance. This information is very important because the key to
"eco-driving" is the driver's ability to predict the road state in
the near future. The other main objective is to develop methods to motivate the user for driving efficiently, since many
previous studies demonstrates that the driver tends to return
to their previous driving habits, even after having received
training on "eco-driving".
2
State of the art
Eco-driving is a driving technique that saves fuel regardless
of vehicle technology, and which is based on the control of
the variables such as: speed, gear, acceleration, and deceleration. We can save up to 25% [Barbe and Boy, 2006] applying this driving technique. Although, this percentage depends
on the driver skill, the vehicle type and the environment. For
example, in hybrid vehicles the percentage of saving is less
because an amount of the wasted energy is used in order to
recharge the battery of the vehicle [Dardanelly et al., 2012].
In the literature, there are many works which demonstrate
that this driving technique reduces fuel consumption and the
emission of gaseous pollutants considerably. In [Van Mierlo
et al., 2004] the authors analyzed the influence of the driving
habits and the traffic on the fuel consumption and the emission of gaseous pollutants. Their conclusions were that drivers can save between 5% and 25% fuel following the ecodriving tips.
This driving technique has also positive effects on safety.
In [Haworth and Symmons, 2001] the results revealed that
learning programs about efficient driving can decrease traffic
accidents around 35%, and the emission of polluting gases
between 25% and 50%. In another study about the effectiveness of the eco-driving courses for vans [Hedges and Moss,
1996], a decrease of traffic accidents by 40% and an increase
on the fuel efficiency by 50% was obtained.
The benefit of efficient driving training courses has been
demonstrated on numerous occasions. However, several authors have observed that the positive effects of this learning
are lost over time [af Wåhlberg, 2007] [Johansson et al.,
2003].
Drivers tend to return to their previous driving habits when
there is not motivation method. In the literature, there are
many proposals to provide eco-driving tips and several types
of feedback [Isler et al., 2010]. It has revealed that these solutions can influence positively the current driver behavior
and long term [Van der Voort et al., 2001].
In the eco-driving, there are many research topics that can
be classified into five groups:
 Identification of variables that affect fuel consumption
 Models to estimate the fuel consumption
 Control models
 Methods to motivate the driver
 User interfaces
51
2.1 Fuel Estimation Models
2.3 Driver Motivation
An essential part of efficient driving is to identify what factors influence on fuel consumption [Hiraoka and Terakado,
2009]. These variables are those considered in the laboratory
to estimate the fuel consumption. One of the first proposals
is still used to certify the vehicles. Afterwards, other authors
such as [André, 1996] [Fomunung et al., 1999] have increased the number of variables.
Following this research line, [Ericsson, 2001] determines
that we must avoid sudden accelerations and high power demand in order to minimize fuel consumption. Similarly, [Johansson et al., 2003 concluded that there are certain characteristics of behavior while driving that are strongly correlated
with fuel consumption. According to this author, drivers must
avoid unnecessary stops, slow abruptly and driving at high
speed in order to decrease energy demand. Also, they highlighted that it is important to not change gear frequently due
to energy losses, and that has to recover then accelerating.
On the other hand, it is also important to know what variables affect safety. [Haworth and Symmons, 2001] identified
these factors. The authors concluded that the reduction of vehicle speed, the choice of an optimal route, and the smoothly
driving have positive effects on both: fuel consumption and
safety. However, eco-driving tips such as driving at constant
speed can cause traffic accidents.
A lot of works have demonstrated that users tend to return
to their previous driving habits, causing a deterioration in efficiency over time [Onoda, 2009]. [Rolim et al., 2003] discuss
the impact of the eco-driving lessons. The results showed a
decrease in the percentage of sudden acceleration, excessive
vehicle speed and fuel consumption (4.8%). However, as
other authors said, they conclude that these improvements
could be temporary in the case that the user does not receive
continuous feedback. New technologies, such as mobile devices and social networks, allow us to develop solutions to
encourage the user to drive efficiently [Trommer and Höltl,
2011] [Ryosuke and Yasushide, 2010].
Vehicle manufacturers are also including in their vehicles
driving assistants to help the user in order to change the driving habits. For example, Ford Focus 2013 included an assistant that evaluates whether the driver shifts gears properly,
and if he or she avoids accelerating and braking sharply.
Other similar examples are: Garmin Mechanic [Garmin,
2014], Torque [Torque, 2014] and Honda Eco-Assist
[Torque, 2014].
The social networking awareness and behavior can also
positively influence the driver’s motivation to save fuel. A
method for utilizing fuel consumption data in an incentive
system for the Tampere City Transport based on sharing individual driver’s average fuel consumption in a specific
group compared to the average fuel consumption of all drivers in that specific group was proposed in [Tulusan et al.,
2011]. The authors achieved savings between 1.4% and 4.6%
of fuel using the solution. Also, they highlights the appropriateness of this proposal to keep in time the improvement.
2.2 Control Models
These proposals obtain the optimal values of the control
variables (throttle, brake and gear) from the point of view of
energy efficiency. These algorithms are based on the prediction of near future. In the literature we found a large number
of proposals in this research area. Its main advantage is that
they allow to save fuel regardless of the driver's ability. However, users are reluctant to use them as we can see in [Van
Der Laan et al., 1997].
Manufacturers are already introducing automated solutions to optimize fuel consumption. An example are the startstop systems which automatically turn off the engine when
the vehicle stops and turn on it when the clutch is depressed.
In addition, the engine is adapted, so there is no wear during
this operation. In several studies, authors recommend turn off
the engine when the vehicle is stopped for more than one minute. However, they also observed that this recommendation
can have negative effect on the engine longevity if it is not
modified to support this solution [Bishop et al., 2007]. This
solution is especially useful in urban road. The fuel economy
is from 5% to 10%.
Another example of control system is Nissan Eco-Pedal.
The solution consists of installing a servo to the throttle pedal. Servo adds strength to the throttle pedal, depending on
the intensity with which the conductor is pressing it. The
strength appears when the driver accelerates with an intensity
exceeding a threshold, from which the system estimated that
fuel consumption will be high. The savings achieved by this
solution is from 5% to 10% of fuel. However, many drivers
do not find comfortable this system and switched it off
[CNET, 2014].
2.4 User Interface
When designing an in-vehicle information system it is important to ensure that the recommendations and the method
to convey these tips do not negatively affect cognitive processing and driving performance [Peissner et al., 2011]. A
very important research topic in eco-driving are communication between the user and the driving assistant.
Many researches analyze what information should be displayed to the user. For example, in [Man et al., 2012], authors
conducted a survey online to find out what is the most demanded information according to the user motivation. The
conclusions were that user interface should show the amount
of money that has been saved in the first place. Drivers also
showed interest in the amount of fuel spent on each trip.
However, the greenhouse emissions were not useful in order
to improve the driving from the point of view of energy consumption.
Other authors try to guess which are the best ways to interact with the user. In several works, they concluded that the
best way to communicate with the user is using the voice.
However, for this to be true is necessary to ensure compliance
with the following requirements [Peissner et al., 2011]:


The speech synthesizer has to issue a clear voice and
humanlike.
The speech recognizer needs to be precise.
52
 Dialogues should not be complex.
The distractions that cause the screens can be mitigated if the
driver does not have to take the eyes off the road. Google
Glass or Garmin HUB [Google Glass, 2013] [Garmin HUB,
2014] are two proposals that allow the user to receive visual
and to pay attention on the road.
3


Eco-driving assistant
The system is continuously monitoring the environment, the
vehicle and nearby cars. The information that the system acquires the environment consists of: vertical static traffic
signs, traffic, weather conditions, slope and anomalous
events. Static traffic signals are obtained using the camera
from an Android Mobile Device and the Viola&Jones algorithm adapted for the recognition of traffic signs. The traffic
state and weather conditions are achieved through web services, although we could alternatively use the information
provided by other vehicles. Anomalous events that affect fuel
consumption are detected by vehicles combining fuzzy logic
with J48 algorithm. J48 is the implementation of the c4.5 algorithm on Weka. Road slope is estimated using the geographical coordinates (latitude, longitude and height) of two
consecutive points.
Then the data are analyzed using different algorithms of
artificial intelligence:
 EM Clustering Algorithm: It retrieves information
based on a certain criterion [Pumrin and Dailey,
2003]. For example, vehicle telemetry where fuel
consumption provided by the manufacturer is 6
l/100 km.
 Fuzzy logic: It is used to evaluate the driving from
the point of view of energy efficiency [Zadeh,
1965].
 Genetic Algorithm: It determines the optimal average speed for each segment of a route.
 J48 Algorithm: It detects unusual events such as
traffic accidents or traffic jams based on vehicle telemetry.
 Viola & Jones algorithm: It is used to recognize
static vertical recognize traffic signs [Viola and
Jones, 2011].
 Multilayer Perceptron Neural Network: It allows to
estimate the acceleration for a segment of the route
taking into account the average speed in combination with the genetic algorithm [Widrow and Hoff,
1969].
The result of data analysis is a set of eco-driving tips and
feedback to motivate the user in order to save fuel. Eco-driving advice can be classified into two groups: Preventive tips
and post-action tips. Eco-driving advice based on anticipation
save a lot of fuel because it prevents the user from making
inefficient actions. The key from eco-driving is anticipation
to reduce the frequency and intensity of the accelerations
(positive and negative). On the other hand, post-action tips
warn the user not to make mistakes again in the driving.
Preventive Tips:



Optimal Average Speed: The system shows the optimal average speed for each segment of the route.
This speed minimizes the frequency and intensity of
the accelerations (positive and negative).
Speed pattern: Solution indicates the recommended
speed second-by-second for smoothing the accelerations or informs the user about what is the most efficient close driver in order to he or she imitates their
behavior.
Traffic Sign Detection and Optimal Deceleration:
The proposal employs an expert system that, based
on the detection or previous knowledge of certain
types of traffic signals, proposes a method to reduce
fuel consumption by calculating optimal deceleration patterns, minimizing the use of braking.
Anomalous Events On Road: The fuel consumption
increases when there are incidents on the road as
traffic jams or weather conditions are adverse. If the
driver knows in advance the incident, he may
change the route or adapt the vehicle speed in order
to avoid having to brake abruptly.
Inefficient regions: During testing, we have observed that drivers tend to make mistakes at the
same places from the point of view of energy efficiency in usual routes. The assistant predicts if the
driver is going to make mistakes and notifies him or
her if so. The prediction is based on the driver behavior shown close to the inefficient region and the
road state.
Post-Actions Tips:
 Real-Time Advice: We can obtain in “real time” the
telemetry through the vehicle diagnostic port (OBD)
[OBD2 Adapter, 2012] [Godavarty et al., 2000].
Therefore, we can detect when the driver violates
any of the eco-driving rules. For example, if the
driver brakes sharply. In these cases, the solution
alerts the user in order to avoid that her or she makes
the same mistake again.
 Eco-driving tips based on other users: the assistant
compares the driving with other users who have previously made the same route under similar conditions and extract tips to improve the driving style.
In the eco-driving is essential to encourage and motivate
the user to apply the tips and continue using the assistant. Our
proposal evaluates the driver when it completes the trip from
the point of view of energy consumption and assigns a score
to him or her. User scores can be shared with friends and
other users establishing a ranking. The gamification techniques are designed based on the goal of obtaining the maximum score. Gamification is the use of game design elements
in non-game contexts such as learning environments. The
idea is to use concepts from games like: the challenge, the
competitiveness and progression in order to motivate the user
for improving the driving style.
Score is calculated using a fuzzy logic system. This
method allows us to simulate the human knowledge when
53
carrying out certain tasks such as driving. The objective is to
model the behavior of an efficient driver. In the model, a set
of input variables is involved and the output is the estimation
of energy efficiency of a driver. The output variable is a number between 0 and 10. A high value means that the driver is
applying the basic rules of eco-driving thoroughly. The proposed solution is able to evaluate the driver's driving style
based on a knowledge database obtained by observing telemetry samples.
On the other hand, we have defined a set of achievements
with the purpose of motivate the driver to use the system frequently and in order to allow him to get familiar with ecological challenges. As an example, the user unlocks an achievement when he completes a trip without accelerating sharply.
Achievements are a traditional gamification method used to
accomplish a certain behavior or to compare the performance
of users. Achievements do not normally imply monetary
compensation, but they are based on an emotional reward.
4
Conclusions
In this paper, we have presented an eco-driving assistant to
encourage drivers to change their driving habits. The proposal is continuously monitoring the environment, the vehicle and nearby cars. The captured data are analyzed using different algorithms of artificial intelligence. The result is a set
of eco-driving tips and feedback to motivate the user in order
to save fuel. The main contribution of this work is that the
tips are adapted taking into account the driver profile (aggressive, normal o eco-friendly), the vehicle features, and the environment conditions.
It is important adjust the tips for each type of user in order
to avoid the discouragement of the driver. Otherwise, the user
may not use the proposal. The thresholds of the eco-driving
rules should not be the same for a normal driver than for an
aggressive driver.
On the other hand, the impact of accelerations, decelerations, vehicle speed and engine speed depend on the vehicle
characteristics. For example, if the vehicle is old, the maximum speed from which the fuel consumption grows exponentially will be lower than in modern vehicles that have aerodynamic improvements.
Finally, the driving style is also influenced by the environment. On an urban road, it is normal that the diver has to increase the frequency and intensity of the accelerations (positive and negative) in comparison with a highway. This increase happens due to traffic signs that force the driver to stop
or the presence of other vehicles or pedestrians using the
road. In this case, the thresholds of the eco-driving rules
should be more permissive.
Acknowledgments
The research leading to these results has received funding
from the “HERMES-SMART DRIVER” project TIN201346801-C4-2-R within the Spanish "Plan Nacional de I+D+I"
under the Spanish Ministerio de Economía y Competitividad
and from the Spanish Ministerio de Economía y Competitividad funded projects (co-financed by the Fondo Europeo
de Desarrollo Regional (FEDER)) IRENE (PT-2012-1036370000),
COMINN
(IPT-2012-0883-430000)
and
REMEDISS
(IPT-2012-0882-430000)
within
the
INNPACTO program.
References
[af Wåhlberg, 2007] A. af Wåhlberg, «Long-term effects of
training in economical driving: Fuel consumption, accidents, driver acceleration behavior and technical feedback,» International Journal of Industrial Ergonomics,
vol. 37, nº 4, pp. 333-343, 2007.
[André, 1996] M. André, «Driving cycles develop-ment:
Characterization of the methods,» SAE Technical Papers
Series 961112, 1996.
[Barbe and Boy, 2006] J., Barbé and G. Boy, “On-board system design to optimize energy management,” Proceedings
of the European Annual Conference on Human DecisionMaking and Manual Control (EAM'06), Valenciennes,
France, September 27-29, 2006.
[Bishop et al., 2007] J. Bishop, A. Nedungadi, G. Ostrowski
y B. Surampudi, «An Engine Start/Stop System for
Improved Fuel Economy,» SAE Technical Paper, 2007.
[Caiazzo et al., 2013] F. Caiazzo, A. Ashok, Ian A. Waitz,
Steve H.L. Yim, and Steven R.H. Barrett, “Air pollution
and early deaths in the United States. Part I: Quantifying
the impact of major sectors in 2005”, Atmospheric Environment, Volume 79, November 2013, Pages 198-208,
ISSN 1352-2310.
[CNET, 2014] «CNET: Eco-Pedal Nissan Infiniti M56 Sedan,»
[En
línea].
Available:
http://reviews.cnet.com/2300-10863_7-10015587-22.html. [Last
access: 15 01 2014].
[Dardanelly et al., 2012] A. Dardanelli, M. Tanelli, B. Picasso, S. Savaresi, O. di Tanna y M. Santucci, «A
Smartphone-in-the-Loop Active State-of-Charge Manager for Electric Vehicles,,» Mechatronics, IEEE/ASME
Transactions on, vol. 17, nº 3, pp. 454-463, 2012.
[Ericsson, 2001] E. Ericsson, «Independent driving pattern
factors and their influence on fuel-use and exhaust emission factors,» Transportation Research Part D: Transport
and Environment, nº 6, pp. 325-345, 2001.
[Garmin HUB, 2014] «Garmin HUB,» [On Line]. Available:
https://buy.garmin.com/en-US/US/prod155059.html.
[Last access: 16 01 2014].
[Garmin, 2014] «Garmin Mechanic App,» [On Line]. Available:https://play.google.com/store/apps/details?id=com.garmin.android.apps.mech&hl=es. [Last access: 2014 01 15].
[Godavarty et al., 2000] Godavarty, S.; Broyles, S.; Parten,
M., "Interfacing to the on-board diagnostic system," Vehicular Technology Conference, 2000. IEEE-VTS Fall
VTC 2000. 52nd , vol.4, no., pp.2000,2004 vol.4, 2000.
doi: 10.1109/VETECF.2000.886162.
54
[Google Glass, 2013] «Google Glass,» [On Line]. Available:
http://www.google.com/glass/start/. [Last access: 20 12
2013].
[Haworth and Symmons, 2001] N. Haworth and M. Symmons, «The relationship between fuel economy and safety
outcomes,» Monash University Accident Research Centre, 2001.
[Hiraoka and Terakado, 2009] T. Hiraoka, Y. Terakado, S.
Matsumoto y S. Yamabe, «Quantitative evaluation of ecodriving on fuel consumption based on driving simulator
experiments.,» de 16th World Congress on Intelligent
Transport Systems, 2009.
[Honda, 2014] «Honda Eco-Assist,» [On Line]. Available:
http://automobiles.honda.com/spanish/accord-sedan/ecoassist.aspx. [Last access: 15 01 2014].
[Fomunung et al., 1999] I. Fomunung, S. Washington y R.
Guensler, «A statistical model for estimating oxides emissions from light duty motor vehicles,» Transportation Research Part D: Transport and Environment, vol. 4, nº 5,
pp. 333-352, 1999.
[Isler et al., 2010] R. Isler, S. N.J. and S. J., «Evaluation of a
sudden brake warning system: Effect on the response time
of the following driver,» Applied Ergonomics, vol. 41, nº
4, pp. 569-576, 2010.
[Johansson et al., 2003] H. Johansson, P. Gustafsson, P.
Henke y M. Rosengren, «Impact of ecodriving on emissions,» de 12th Symposium Transport and Air Pollution
Conference, Avignon, 2003.
[Hedges and Moss, 1996] P. Hedges and D. Moss, «Costing
the effectiveness of training: case study 1 - improving Parcelforce driver performance,» Industrial and Commercial
Training, vol. 28, nº 3, pp. 14-18, 1996.
[Koshinen, 2008] O. H. Koskinen, “Improving vehicle fuel
economy and reducing emissions by driving technique,”
Proceedings of the15th ITS World Congress, New York,
Nov 15-20, 2008.
[Man et al., 2012] W. Y. Man, J. Brie, B. Vam Arem and S.
Mizobuchi, «User needs in green its: the results of a questionnaire survey on Dutch and Japanese drivers,» International Journal of Intelligent Transportation Systems Research, vol. 10, nº 2, pp. 47-55, 2012.
[OBD2 Adapter, 2012], URL: http://www.scantool.net. [Last
access: May 2014].
[Onoda, 2009] T. Onoda, «lEA policies-G8 recommendations and an afterwards,» vol. 37, nº 10, 2009.
[Peissner et al., 2011] M. Peissner, V. Doebler y F. Metze,
«Can voice interaction help reducing the level of distraction and prevent accidents? Meta-study on driver distraction and voice interaction,» NUNCE, 2011.
[Pumrin and Dailey, 2003] Pumrin, S.; Dailey, D.J., "Vehicle
image classification via expectation-maximization algorithm," Circuits and Systems, 2003. ISCAS '03. Proceedings of the 2003 International Symposium on , vol.2, no.,
pp.II-468,II-471 vol.2, 25-28 May 2003. doi:
10.1109/ISCAS.2003.1206011
[Rolim et al., 2003] C. C. Rolim, P. C. Baptista, G. O. Duarte
y T. L. Farias, «Impacts of On-board Devices and
Training on Light Duty Vehicle Driving Behavior,»
Procedia - Social and Behavioral Sciences, vol. 111, pp.
711-720, 2014.
[Ryosuke and Yasushide, 2010] A. Ryosuke and N.
Yasuhide, «Development of a system to promote ecodriving and safe-driving,» de Smart Spaces and Next
Generation
Wired/Wireless
Networking:
Third
Conference, 2010.
[Torque, 2014] «Torque,» [On-Line]. Available:
http://torque-bhp.com/. [Last access: 15 01 2014].
[Trommer and Höltl, 2011] S. Trommer y A. Höltl, «Perceived usefulness of eco-driving assistance systems in Europe,» Intelligent Transport Systems, IET, vol. 6, nº 2, pp.
145-152, 2011.
[Tulusan et al., 2011] J. Tulusan, L. Soi, J. Paefgen, M.
Brogle y T. Staake, «"Eco-efficient feedback technologies: Which eco-feedback types prefer drivers most?,» de
IEEE International Symposium on a World of Wireless,
Mobile and Multimedia Networks (WoWMoM), 2011.
[Van Der Laan et al., 1997] J. D. Van Der Laan, A. Heino y
D. De Waard, «A simple procedure for the assessment of
acceptance of advanced transport telematics,» Transportation Research Part C: Emerging Technologies, vol. 5, nº
1, pp. 1-10, 1997.
[Van der Voort et al., 2001] M. van der Voort, M. Dougherty
y M. van Maarseveen, «A prototype fuel-efficiency support tool,» Transportation Research Part C: Emerging
Technologies, vol. 9, nº 4, 2001.
[Van Mierlo et al., 2004] J. Van Mierlo, J. Maggetto, E. Van
Burgwal y R. Gense, «Driving style and traffic measuresinfluence on vehicle emissions and fuel consumption,»
Proceedings of the Institution of Mechanical Engineers,
Part D: Journal of Automobile Engineering, vol. 218, nº
1, pp. 43-50, 2004.
[Viola and Jones, 2011] P. Viola and J. Michael, “Robust
Real-time Object Detection,” Second international workshop on statistical and computational theories of vision –
modeling, learning, computing, and sampling, Vancouver, 2001.
[Widrow and Hoff, 1969] B. Widrow and M. E. Hoff, “Adaptive switching circuits,” WESCOM Conv. Rec., pt. 4, pp.
96-140, 1960.
[Zadeh, 1965] L. Zadeh, «Fuzzy sets,» Information and Control, vol. 8, nº 3, pp. 338-353, 1965
55
La formación a través de dispositivos móviles. Diseño y evaluación de contenidos y
actividades formativas a través de m-learning
Alfonso Cueto Crespo1
Soria Morillo, Luis Miguel2
Álvarez García, Juan Antonio3
1 Scientific
Computing Center of Andalusia (CICA)
Economy, Innovation and Science Counseling
Andalusia, Spain
[email protected]
2 Dept.
of Languages and Informatics Systems
University of Seville
Seville, Spain
[email protected]
3 Dept.
of Languages and Informatics Systems
University of Seville
Seville, Spain
[email protected]
Abstract
El porcentaje de alumnos que acaban un curso online es
inferior al 20% (Liyanagunawardena, Dropout: MOOC
participants’perspective., 2014) por lo que proponemos
una aplicación móvil que de manera automática
reconozca el contexto del usuario y le notifique las
lecciones que podría realizar en dicho contexto, por lo que
esperamos aumentar dicho porcentaje y facilitar la
realización de los lecciones.
Keywords: MOOC, Activity Recognition, m-learning,
computacion ubicua
móviles (Cuadrado Cordero & Soria Morillo, 2013).
Teniendo en cuenta la tendencia y popularidad de los
cursos online (MOOC) queremos unirla con computación
ubicua y poder ofrecer al usuario una nueva experiencia
de aprendizaje en la que el dispositivo móvil le ofrezca el
material al usuario en función de su actividad/situación.
Para este fin nos hemos basado en tecnologías de Google,
gestionadas desde una aplicación Android y sobre un
curso en Moodle. En la siguiente ilustración se puede
observar a grandes rasgos el flujo de trabajo de la
aplicación.
1. Introducción
Desde hace unos años se ha visto un incremento en los
alumnos que se matriculan en cursos online por internet,
esto en parte es debido a que al no tener ningún
requerimiento muchos se apuntan por el mero hecho de la
curiosidad cosa que provoca en algunos casos índices de
finalización muy bajos ya que muchos acaban
abandonándolos, en otros se debe a otros factores que
hacen que el alumno pierda el interés por el curso.
Por otro lado durante la última década, la tecnología ha
creado un nuevo campo en el desarrollo de software,
conocido como la computación ubicua, gracias a la
mejora y ampliación de los sensores integrados. Estos
sensores se han integrado con éxito en la vida diaria del
usuario común, usando dispositivos como teléfonos
Ilustración 1: flujo de funcionamiento
1.
2.
3.
Cuando el dispositivo detecta un contexto
adecuado manda un mensaje por GCM (Google
Cloud Message) al servidor de peticiones.
Este con la información del mensaje original
hace una petición a Moodle.
Moodle responde con las lecciones disponibles
para dicho usuario en ese contexto concreto.
56
4.
El servidor responde con un mensaje por GCM
al dispositivo con toda la información que
necesita para realizar el ejercicio.
2. Nuestra Propuesta
Para ello estamos desarrollando una aplicación móvil en
Android que gracias al reconocimiento del contexto pueda
sugerirle al alumno las lecciones que podría realizar
paralelamente durante dicho contexto, dándole la opción
de poder realizar las lecciones sin que la falta de tiempo o
la situación en la que se encuentra sea un inconveniente.
3. Conclusiones
Esperamos poder brindar una nueva experiencia de
aprendizaje en los cursos online en la que el dispositivo
móvil sepa que lección debes realizar en función del
contexto en el que se encuentre el alumno, para de este
modo facilitar la realización y aumentar el porcentaje de
finalización de los cursos.
4. References
[1]
Dropout:
MOOC
participants’perspective.
Liyanagunawardena, T. R., Parslow, P. and Williams, S.
2014.
[2] A proposal on an energy-saving policy on
context based system. Cuadrado Cordero, Ismael y Soria
Morillo, Luis Miguel. 2013.
57
Towards A Fuzzy Colour Descriptor Sensitive to the Context
Zoe Falomir∗
Universit¨at Bremen
Vivien Mast
Universit¨at Bremen
Daniel Couto Vale
Universit¨at Bremen
Lled´o Museros
Luis Gonzalez-Abril
Universitat Jaume I Universidad de Sevilla
Abstract
In order to categorise colour coordinates into colour
names with a degree of believing, a Fuzzy Colour
Descriptor (FCD) based on the Hue Saturation and
Lightness colour space is presented. This FCD is
intended to manage the context on colour naming
in order to generate suitable referring expressions
which could approximate human perception and
enhance human-machine communication.
1 Introduction
Colour perception is very subjective since there are colours
which may be named differently depending on the person
who refers to them. For example, the cloth in Figure 1 may
be named as the green or yellow cloth.
Figure 1: The green cloth or the yellow cloth? Depending on
the person’s perception.
There are other cognitive effects in colour perception,
such as sensitivity to brightness or/and colour context [Lotto
and Purves, 1999], which may cause conceptual mismatch
and communication failure between humans and machines.
Examples of these effects are shown in Figure 2. There is also
empirical evidence which confirms that object colour perception changes with change in illumination and background
[Helson, 1938].
Spranger and Pauw [2012] show that overlapping, graded
colour categories can improve the chances of communicative success under circumstances of perceptual and conceptual deviation. Therefore, providing a parameterised model
∗
Correspondence to: Zoe Falomir, Cognitive Systems (CoSy),
FB3 - Informatics, Universit¨at Bremen, P.O. Box 330 440, 28334
Bremen, Germany. E-mail: [email protected]
(a)
(b)
Figure 2: Examples of: (a) context sensitivity of colour perception: the colour of the X is the same in both parts; and (b)
context sensitivity of brightness perception: the colour of the
small square is the same in both parts.
for colour naming allows the adaptation of the system’s usage
of colour terms to the idiosyncrasies of user groups or individuals.
A colour-naming model can be parameterised in a specific
way, so that the system can adapt to a specific type of user
[Museros et al., 2014; Soto-Hidalgo et al., 2010]. However,
when two users need to communicate, they need to agree on a
colour name, and having a range of grade possibilities for the
same colour coordinates facilitates common grounding and
concept alignment through dialogue.
In this paper, a Fuzzy Colour Descriptor (FCD) based on
Hue Saturation and Lightness (HSL) colour space is presented for categorising colour coordinates into colour names
with a degree of believing. HSL colour space is used because, according to Palmer [1999] and to Sarifuddin and Missaoui [2005], its topological structure is intuitive to be divided
into intervals of values corresponding to colour names. This
fuzzy colour model is defined in general and parameterised
as a baseline using data of a collection of colour data, coming
from previous experiments [Falomir et al., 2013]. However it
is suitable of adaptation to other experimental results on other
populations. The context of communication is managed by
this fuzzy colour model in combination with the Probabilistic
Reference And GRounding mechanism (PRAGR) [Mast and
Wolter, 2013] which, based on the degrees of believing obtained evaluates discriminatory power and appropriateness of
referring expressions.
58
2 Related Work
In the literature, other fuzzy colour descriptors have been previously defined on other colour models: (i) an approach for
computational colour categorisation and naming based on the
CIE Lab colour space and fuzzy partitioning was formulated
by Menegaz et al. [2007]; (ii) fuzzy colour categories were
defined based on the Musell Colour Solid and the HCL colour
space and similarity values based on the Fuzzy C-Means to
compare fuzzy colour categories were defined by Seaborn
et al. [2005]; (iii) an approach to automatically design customised fuzzy colour spaces on any euclidean crisp space
was proposed by Soto-Hidalgo et al. [2010], they also defined three fuzzy colour spaces on RGB using the colour sets
in the ISCC-NBS colour naming system as a baseline.
All these previous works provide evidence for the effectiveness of applying fuzzy methods for colour naming. However, in the literature, very few approaches manage the context for colour naming, only the work by Meo et al. [2014] use
uncertain boundaries of colour terms in their system, which
can generate appropriate colour terms in referential situations
for discriminating similar colour patches.
The FCD presented in this paper is combined with PRAGR
[Mast and Wolter, 2013] in order to solve vague colour references in human-machine interaction taking into account
the context of the information. To our knowledge, there are
no contextually aware colour models that have been demonstrated to function within the context of generating and resolving arbitrarily complex referring expressions with different kinds of properties and relations.
3 A Fuzzy Colour Descriptor (FCD)
The concept of fuzzy set was introduced by Zadeh [1965] as a
‘class’ with a continuum of grades of membership defining a
methodology for translating the numerical data obtained from
the world into linguistic categories with a degree of believing
which can be given a meaning and used for reasoning.
Let us define a fuzzy set as a pair (F zSet, µF zSet ) where
F zSet is a set and µF zSet : F zSet → [0, 1] ∈ <. For
a finite set F zSet = {x1 , ..., xn }, for each x ∈ F zSet, a
µF zSet (x) is obtained and called the grade of membership of
x ∈ (F zSet, µF zSet ).
Let x ∈ F zSet. Then x is called not included in the fuzzy
set (F zSet, µF zSet ) if µF zSet (x) = 0.0, x is called fully
included if µF zSet (x) = 1.0, and x is called fuzzy member if
0.0 < µF zSet (x) < 1.0.
From the HSL coordinates, a Fuzzy Colour Reference System is defined as:
FzCRS = {uH, uS, uL, CF zSet1..5 }
where uH is the unit of Hue, uS is the unit of Saturation, uL
is the unit of Lightness in the HSL colour space (Figure 3);
CF zSet1..5 refers to the selected colour names and the fuzzy
sets related to them, as follows:
CF zSet1 = {(G1 , µG1 )), ..., (Gi , µGi )), ..., (G` , µG` )}
where ` colour names are defined for the grey scale in
CF zSet1 by fuzzy sets. It is worth noting that the parameters
` depend on the granularity that an expert needs in each
Figure 3: The Fuzzy Colour Descriptor (FCD) build on the
HSL colour space.
scenario. Henceforth, ` = 5 have been chosen as a baseline.
CF zSet2 = {(R1 , µR1 ), ..., (Rj , µRj ), ..., (Rr , µRr )}
where r colour names are defined for the rainbow scale in
CF zSet2 and are considered the more saturated or stronger
ones. In QCIN T2 , their saturation can take values between
rusM IN and 100, whereas their luminance can take values
between rulM IN and rulM AX . Thus, the different values of
hue (ruhr ) can take values between 0 and 360 and determine
the colour names defined for this set. Note that the parameters r depend on the granularity that an expert needs in each
scenario. Henceforth, r = 5 has been chosen as a baseline.
CF zSet3 = {pale- + CF zSet2 }
where r pale colour names are defined in CF zSet3 by adding
the prefix pale- to the colours defined for the rainbow scale,
CF zSet2 . The colour names defined in CF zSet3 have the
same interval values of hue as rainbow colours (CF zSet2 ).
The lightness intervals also coincide, but they differ from
rainbow colours in their saturation, which can take values
between gusM AX and rusM IN .
CF zSet4 = {light- + CF zSet2 }
CF zSet5 = {dark- + CF zSet2 }
where r light and dark colour names are defined in CF zSet4
and CF zSet5 , respectively, by addition of the prefixes darkand light- to the colour names in the rainbow scale (CF zSet2 ).
The intervals of values for dark and light colour sets, CF zSet4
and CF zSet5 , take the same values of hue as rainbow colours
in CF zSet2 , respectively. The saturation intervals also coincide, but the lightness coordinate (UL) differs and determines
the luminosity of the colour (dark or light) taking values between rulM AX and 100 for light colours and between rul and
rulM IN for dark colours.
59
4 Parameterising the FCD
• In all other cases, the interval values in HSL correspond
to wedges in the Cartesian axis (see Figure 4). Therefore, for the colours in the rest of scales, it is holds that:
1
(hc , sc , lc ) where hc = h0 +h
, sc = sr sin(hc ), and
2
1
lc = l0 +l
2
q 2 2
s0 +s1
0
(hr , sr , lr ) where hr = h1 −h
, sr =
and lr =
2
2
The FCD is parameterised as a baseline using data of a collection of colour intervals (each one assumed to be fully representative of a certain colour term) coming from previous
experiments [Falomir et al., 2013; Falomir et al.]. However,
those crisp intervals have been adapted to a more intuitive
definition where values are overlapped. Colours in the grey
scale, CF zSet1 , have uncertain boundaries in the dimension
of lightness, such as the prototypical colours, CF zSet2 , in the
dimension of hue. Moreover, prototypical colours are defined
in the whole range of lightness, because a light-red or a darkred colour is considered also red. As a result, the intervals
defining light/dark colours are overlapping also prototypical
colours.
Table 1 shows the values used for parameterising the FCD.
Inspired by to other works in the literature [Palmer and
Schloss, 2010], this model has also defined some equivalent
colours such as: dark-orange≡brown, dark-yellow≡olive,
pale-red≡pastel-pink according to the Inter-Society Colour
Council - National Bureau of Standards (ISCC-NBS1 ).
l1 −l0
2
The exception is the colour red, which is divided into
two parts in order to cover the starting and ending part of
the central circle in HSL. For the first red, hc = h0 = 0
and hr = h1 − h0 , whereas for the second red, hc =
h1 = 360 and hr = h1 − h0 .
lr
h1
h0
s = 100
s = min
5 The FCD Membership Functions
Let us define a fuzzy degree of believing for each colour defined on HSL internals:
[h0 , h1 ] × [s0 , s1 ] × [l0 , l1 ] ≡ Br (h, s) × Blr (lc)2
Let us define a three-dimensional Radial Basis Function
(RBF) as µ(h, s, l):
µ(h, s, l) = e
h−hc 2
s−sc 2
l−lc 2
−1
2 (( hr ) )+( sr ) )+( lr ) ))
(1)
where (hc , sc , lc ) are the centroids of the intervals in hue (h),
saturation (s) and lightness (l) for each defined colour and
(hr , sr , lr ) are the amplitudes of those intervals or radius.
Note that, from the spatial structure of the HSL colour
space, it is obtained that:
• In CF zSet1 , the interval values obtained in HSL coordinates correspond to cylinders in the Cartesian coordinate
system. Therefore, for the colours in the grey scale, it is
holds that:
(hc , sc , lc ) where hc = sc = s0 = minsaturation and
1
lc = l0 +l
2
(hr , sr , lr ) where hr = sr = s1 = maxsaturation and
0
lr = l1 −l
2
As hc = sc and hr = sr , then (1) is independent of hue
and it can be rewritten as:
µ(h, s, l) = e
s−sc 2
l−lc 2
−1
2 (( sr ) )+( lr ) ))
(2)
Note that for the colour black, lc = l0 = 0 and for the
colour white, lc = l1 = 100.
1
http://tx4.us/nbs-iscc.htm (Accessed August
2014)
2
Note that, given an open interval (analogously for another kind
of interval) of finite dimension, there are two main ways to represent
it: from the extreme points as (a,b) (classical notation) or as an open
ball Br (c) (Borelian notation) where c = (a + b)/2 (centre) and
r = (b − a)/2 (radius).
Figure 4: Wedges which determine the colours in the most
saturated colour scale CF zSet2 , the pale scale CF zSet3 , the
light scale CF zSet4 and the dark scale CF zSet5 .
Table 2 shows the parameters used by the FCD, which applied to (1) generate the 3D-RBFs for obtaining the degree of
believing for each colour name.
Figure 5 shows the membership functions of the colours
in the grey scale, CF zSet1 , taking into account the dimension
of lightness. Figure 6 presents the membership functions of
the prototypical colours, CF zSet2 , in the dimension of hue.
Figure 7 shows the membership function of a prototypical
colour, red, defined in the whole range of lightness, since
light-red and dark-red colour are considered also red. Figure
8 show the membership functions obtained for any prototypical colour defined in the dimension of lightness or saturation,
respectively. Note how the membership functions overlap as
a result of the RBF parameters. Finally, Figure 9 shows the
membership function of a prototypical colour (orange) depending on the amount of hue and the amount of saturation,
considered together.
6
Normalizing the Grades of FCDs
In order to grade the degrees of believing obtained for each
colour descriptor (1, 2), they are normalised as follows:
µ(h, s, l)
(3)
µ(h, s, l) = Pn
i=1 µ(h, s, l)
where the input variables are hue (h), saturation (s) and
lightness (l) as the coordinates of the color in HSL and
60
P
µ(h, s, l) is the total amount of certainties obtained for
these HSL colour coordinates.
7
Table 3: FCDs obtained for each of the objects in the scenes
in Figure 10.
Probabilistic Reference And GRounding
(PRAGR) Mechanism
Based on the fuzzy degree of believing for different colour
terms, the Probabilistic Reference and GRounding (PRAGR)
mechanism can determine, in a given situation, the most appropriate referring expression to use for describing a particular object. Moreover, PRAGR can determine the most likely
referent for a given description (see Mast and Wolter [2013]
for a detailed description). The core concepts of PRAGR are
Acceptability (Acc) and Discriminatory Power (DP ).
The acceptability of a description D is the conditional
probability P (D|x) that D will be accepted by the interlocutor as a description of object x. For simple properties, like
colour terms, Acc can correspond to the fuzzy degree of believing obtained by the FCD presented here. For complex
descriptions, belief scores are multiplied.
Discriminatory Power is the probability P (x|D) that D
discriminates x from its distractors. This value compares the
acceptability of D for the target to its acceptability for distractors. For identifying the most likely referent of a given
description, PRAGR selects the object for which D has the
highest Acc.
When generating referring expressions, PRAGR jointly
maximises Acc and DP , selecting an expression that yields
the best balance between providing an adequate description of
an object per se, and a description that distinguishes it from
the other objects in the context. The model parameter α determines the weighting of Acc, with a value of 0 indicating
that Acc is ignored, and a value of 1 meaning that only Acc
is considered, and DP is ignored. Values of 0.2 to 0.4 have
been shown to yield good results.
Scene 1
Scene 2
circle-up
HSL(330,63,59),
(red, 0.48),
(pink, 0.75),
(pale-red, 0.36),
(pale-pink, 0.56),
(light-red, 0.34),
(light-pink, 0.54)
(purple, 0.1),
(dark-red, 0.072),
(dark-pink, 0.11)
HSL(201,100,30),
(green, 0.12),
(turquoise, 0.53),
(blue, 0.59),
(purple, 0.06),
(dark-green, 0.08),
(dark-blue, 0.05),
(dark-turquoise,
0.05)
circle-down
HSL(8,59,61),
(red, 0.9),
(orange, 0.19),
(pale-red, 0.27),
(light-red, 0.54),
(dark-red, 0.08),
(light-orange,
0.08)
HSL(5,56,64),
(red, 0.93),
(orange, 0.13),
(pale-red, 0.32),
(light-red, 0.63),
(dark-red, 0.06),
(light-orange,
0.06)
square-up
HSL(8,59,61),
(red, 0.9),
(orange, 0.19),
(pale-red, 0.27),
(light-red, 0.54),
(dark-red, 0.08),
(light-orange,
0.08)
HSL(5,56,64),
(red, 0.93),
(orange, 0.13),
(pale-red, 0.32),
(light-red, 0.63),
(dark-red, 0.06),
(light-orange,
0.06)
square-down
HSL(330,63,59),
(red, 0.48),
(pink, 0.75),
(pale-red, 0.36),
(pale-pink, 0.56),
(light-red, 0.34),
(light-pink, 0.54)
(purple, 0.1),
(dark-red, 0.08),
(dark-pink, 0.11)
HSL(201,100,30),
(green, 0.12),
(turquoise, 0.53),
(blue, 0.59),
(purple, 0.06),
(dark-green, 0.08),
(dark-blue, 0.05),
(dark-turquoise,
0.05)
8 Experimentation
A proof-of-concept of the FCD is presented considering the
scene examples in Figure 10. Table 3 shows the HSL coordinates and their degrees of believing obtained from the objects
in the scenes.
by PRAGR for the circle located down in Scene 1 in Figure
10.
Table 4: Evaluation values of PRAGR for circle located down
in Scene 1.
(a) Scene-1
(b) Scene-2
Figure 10: Which colours do the circles and squares have?
Are the red colours equal in both scenes?
Table 4 presents the values of acceptability (Acc), discriminatory power (DC) and appropriateness (App) calculated
Acc
DP
App
red circle
0.9
0.65
0.72
orange circle
0.19
1.0
0.79
Description
Table 4 shows how, in Scene 1, the term orange gets pre-
61
ferred over red for the circle located down. Even though red
has a higher acceptability value, the potential acceptability of
colour red for the distractor object circle-up (P (red|circleup) = 0.14) leads to a low discriminatory power, and thus a
slight dispreference of the term, in favour of the less acceptable, but more discriminating orange.
Table 5 shows the descriptions that PRAGR generates for
the objects in both scenes with α = 0.26. As Table 5 shows
the circle down is referred as orange in Scene 1, and as red
in Scene 2, even though both have almost identical colour
coordinate values.
Table 5: Object descriptions generated by PRAGR for the
scenes in Figure 10.
Scene 1
Scene 2
circle-up
pink circle
blue circle
circle-down
orange circle
red circle
square-up
orange square
red square
square-down
pink square
blue square
9 Conclusions and Future Work
A Fuzzy Colour Descriptor (FCD) based on radial basis membership functions has been defined on the Hue Saturation and
Lightness colour space and presented in this paper for categorising colour coordinates into colour names with a degree
of believing depending on the context of communication.
The FCD has been parameterised as a baseline using data
of a collection of crisp colours, (each one assumed to be fully
representative of a certain colour term) coming from previous
experiments [Falomir et al., 2013]. However, it is suitable of
adaptation to other experimental results on other psychological studies.
The context of communication is managed by
FCD+PRAGR, that is, in combination with the Probabilistic Reference And GRounding mechanism (PRAGR)
[Mast and Wolter, 2013] which adapts the degrees of
believing obtained to maximise discriminatory power and
appropriateness of the referring expressions.
As future work, we intend to compare the fuzzy colour descriptor proposed in this paper to other crisp colour models
(i.e. QCD [Falomir et al., 2013]) in order to select the more
effective descriptor for image retrieval in data bases based on
linguistic, flexible queries made by users. We are also working on the automatic generation of linguistic descriptions of
painters’ colour-palettes on the basis of colour information
[Falomir et al.].
Acknowledgments
Dr.-Ing. Zoe Falomir gratefully acknowledges the funding
from the project COGNITIVE-AMI (GA 328763) by the
European Commission through FP7 Marie Curie IEF actions and the support by the Universit¨at Bremen and the in-
terdisciplinary Transregional Collaborative Research Center
SFB/TR8.
Vivien Mast and Daniel Vale acknowledge the funding by
the project I5-[DiaSpace] at the SFB/TR 8 Spatial Cognition
Research Center and by the German Research Foundation
(DFG).
Dr. Luis Gonzalez-Abril acknowledges the funding by the
the Deutscher Akademischer Austausch Dienst (DAAD) and
the Andalusian Regional Ministry of Economy (project SIMON TIc-8052).
Dr.
Lledo Museros acknowledges the funding by
the Spanish Ministry of Economy and Competitiveness
(project TIN2011-24147), Generalitat Valenciana (project
GVA/2013/135) and Universitat Jaume I (project P11B201329).
References
Z. Falomir, L. Museros, and L. Gonzalez-Abril. A model for
colour naming and comparing based on conceptual neighbourhood. an application for comparing art compositions.
Knowledge-based Systems. in press.
Z. Falomir, L. Museros, L. Gonzalez-Abril, and I. Sanz. A
model for qualitative colour comparison using interval distances. Displays, 34:250–257, 2013.
H. Helson. Fundamental problems in color vision. i. the principle governing changes in hue, saturation, and lightness of
non-selective samples in chromatic illumination. Journal
of Experimental Psychology, 23(5):439–476, 1938.
R.B Lotto and D. Purves. The effects of color on brightness.
Nature Neuroscience, 2(11):1010–1014, 1999.
V. Mast and D. Wolter. A probabilistic framework for object
descriptions in indoor route instructions. In T. Tenbrink
(eds.), editor, Spatial Information Theory, pages 185–204.
2013.
G. Menegaz, A. Le Troter, J. Sequeira, and J. M. Boi. A
discrete model for color naming. EURASIP J. Appl. Signal
Process, Special Issue on Image Perception, pages 1–10,
2007.
Timothy Meo, Brian McMahan, and Matthew Stone. Generating and resolving vague color references. In Verena
Rieser and Philippe Muller, editors, Proceedings of SemDial 2014/DialWatt, pages 107–115, 2014.
L. Museros, I. Sanz, L. Gonzalez-Abril, and Z. Falomir. Validating and customizing a colour naming theory. In Artificial Intelligence Research and Development, Frontiers in
Artificial Intelligence and Applications, page in press. IOS
Press, Amsterdam, 2014.
S. E. Palmer and K. B. Schloss. An ecological valence theory
of human color preference. Proceedings of the National
Academy of Sciences, 107(19):8877–8882, April 2010.
S. Palmer. Vision Science: Photons to Phenomenology. MIT
Press, 1999.
M. Sarifuddin and R. Missaoui. A new perceptually uniform color space with associated color similarity measure
for contentbased image and video retrieval. In Multimedia
62
Information Retrieval Workshop, 28th annual ACM SIGIR
conference, pages 3–7, 2005.
M. Seaborn, L. Hepplewhite, and T. J. Stonham. Fuzzy colour
category map for the measurement of colour similarity and
dissimilarity. Pattern Recognition, 38(2):165–177, 2005.
J. M. Soto-Hidalgo, J. Chamorro-Martinez, and D. Sanchez.
A new approach for defining a fuzzy color space. In Fuzzy
Systems (FUZZ), 2010 IEEE International Conference on,
pages 1–6, July 2010.
M. Spranger and S. Pauw. Dealing with Perceptual Deviation
- Vague Semantics for Spatial Language and Quantification. In L. Steels and M. Hild, editors, Language Grounding in Robots, pages 173–192. Springer, 2012.
L. Zadeh. Fuzzy sets. Information and Control, 8:338–353,
1965.
63
Table 1: HSL overlapping intervals for colour names.
CF zSet1
CF zSet2
CF zSet3
CF zSet4
CF zSet5
Colour Name
black
dark-grey
grey
light-grey
white
red
orange
yellow
green
turquoise
blue
purple
pink
pale-red, pastel-pink
pale-orange
pale-yellow
pale-green
pale-turquoise
pale-blue
pale-purple
pale-pink
light-red
light-orange
light-yellow
light-green
light-turquoise
light-blue
light-purple
light-pink
dark-red
dark-orange, brown
dark-yellow, olive
dark-green
dark-turquoise
dark-blue
dark-purple
dark-pink
UH
US
[0, 360]
[0, 20]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(297, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
UL
[0, 20)
[20, 30)
[30, 50)
[50, 75)
[75, 100]
(50, 100]
(20, 80]
(20, 50]
(40, 100]
(50, 100]
(55, 100]
(50, 100]
(0, 40]
64
Table 2: Parameters of the radial basis functions (Ci , Si ) for the colour model.
CF zSet1
CF zSet2
CF zSet3
CF zSet4
CF zSet5
Colour Name
black
dark-grey
grey
light-grey
white
red
orange
yellow
green
turquoise
blue
purple
pink
pale-red, pastel-pink
pale-orange
pale-yellow
pale-green
pale-turquoise
pale-blue
pale-purple
pale-pink
light-red
light-orange
light-yellow
light-green
light-turquoise
light-blue
light-purple
light-pink
dark-red
dark-orange, brown
dark-yellow, olive
dark-green
dark-turquoise
dark-blue
dark-purple
dark-pink
H (Ci , Si )
S (Ci , Si )
(180, 180)
(10, 10)
(0, 20) ∧ (360, 25)
(35,15)
(65,15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(200, 260]
(280, 20)
(317.5, 17.5)
L (Ci , Si )
(0, 10)
(25, 5)
(40, 10)
(62.5, 12.5)
(100, 12.5)
(70, 30)
(50, 30)
(25, 15)
(70, 30)
(75, 25)
(75, 25)
(75, 25)
(20, 20)
65
µ(black, 0, 10)
µ(dark grey, 25, 5)
µ(grey, 40, 10)
µ(light grey, 62.5, 12.5)
µ(white, 100, 12.5)
−1 x−Ci 2
2 ( Si )
1
0.8
µ(x, Ci , Si ) = e
0.6
0.4
0.2
0
0
20
40
60
80
100
x
Figure 5: Fuzzy colours in the grey scale in the ligthness dimension (L): CF zSet1 .
µ(red, 0, 20)
µ(orange, 35, 15)
µ(yellow, 65, 15)
µ(green, 120, 40)
µ(turquoise, 180, 20)
µ(blue, 230, 30)
µ(purple, 280, 20)
µ(pink, 317.5, 17.5)
µ(red, 360, 25)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
0
100
200
x
300
Figure 6: Fuzzy colours in one dimension (hue): CF zSet2 .
µ(dark colour, 20, 20)
µ(prototypical colour, 50, 30)
µ(pale colour, 70, 30)
µ(light colour, 75, 25)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
−100 −50
0
50
x
100
150
200
Figure 7: Fuzzy colours in the dimension of lightness (L).
66
µ(grey colour, 10, 10)
µ(prototypical/light/dark colour, 70, 30)
µ(pale colour, 25, 15)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
−100 −50
0
50
x
100
150
200
Figure 8: Fuzzy colours in the dimension of saturation (S).
Green(x)
Y ellow(x)
P
1
Orange(x)
Red(x)
Saturation(x)
0.5
0
0
20
100
40
120
Orange(h, s)
80
60
x1
0.4
60
80
40
100
x2
0.2
20
120 0
Figure 9: Radial Basis Function in two dimensions (hue and saturation) for the colour orange.
0
67
¿Es eficiente apagar m´aquinas en un centro de datos?
D. Fern´andez, A. Fern´andez-Montes, L. Gonz´alez Abril, Juan A. Ortega
Universidad de Sevilla
Espa˜na
[email protected], [email protected], [email protected], [email protected]
1
Abstract
Este trabajo tiene como objetivo demostrar los costes extra
en los que las empresas proveedoras de sevicios de internet,
administradores de sistemas y dem´as organismos que hacen
uso de infraestructuras de cl´uster o centros de datos incurren
debido al miedo que los equipos t´ecnicos tienen a la p´erdida
de datos, merma de servicio o rotura de infraestructura hardware.
Para demostrar esto, propondremos una funci´on que cuantifica el coste de ese miedo, es decir, los costes asociados con
la creencia de que apagar m´aquinas dentro de los centros de
datos suponen m´as costes que el ahorro que se produce por el
ahorro energ´etico que conlleva.
Partiendo de la hip´otesis contraria a la creencia actual,
esto es, que los beneficios de apagar un n´umero determinado de veces las m´aquinas de los centros de datos que
sean susceptibles de ello no es intr´ınsecamente malo, ni aumenta los costes totales del centro de datos, propondremos
una soluci´on te´orica que deja en evidencia que siempre habr´a
una alternativa m´as eficiente que dejar las m´aquinas del centro de datos siempre encendidas aunque no est´en ejecutando
ninguna tarea.
El n´umero de veces que las m´aquinas deben apagarse dentro de los centros de datos depender´an de numerosos factores
de la naturaleza de la infraestructura, del servicio que ofrezcan, las tareas que ejecuten, los datos que almacenen o las
propiedades de los componentes hardware de los equipos.
El objetivo es proponer una soluci´on te´orica que encaje
perfectamente con la infraestructura tecnol´ogica que da soporte a servicios para los que normalmente se utilizan centros
de datos: anal´ıticas y tareas que siguen el paradigma MapReduce que no se ejecutan en tiempo real. Esto se debe a que
los sistemas de archivos distribuidos y computaci´on paralela
que los sustentan posibilitan que los datos no se pierdan ni
corrompan y que la correcta ejecuci´on de las tareas que llegan no se vea comprometida.
Queda como trabajo futuro demostrar que seg´un la naturaleza del servicio al que da soporte el cl´uster o centro de
datos y que dependiendo del tipo de implementaci´on que se
de al sistema que implemente estas mejoras te´oricas que se
exponen en este trabajo esta soluci´on de eficiencia energ´etica
es perfectamente asumible en entornos de tiempo real o de
alta computaci´on con la parametrizaci´on y sistemas de apoyo
necesarios. Adem´as, resulta de alto inter´es conocer la tasa
de fallo en el hardware de comodidad que se usa en entornos
de producci´on reales as´ı como los costes derivados de estos
fallos.
XVI Jornadas de ARCA
68
69
Introducci´on de una nueva caracter´ıstica en el modelo Qualitative Shape
Description (QSD)
L. Gonzalez-Abrila , Ll. Muserosb , Z. Falomirc and I. Sanzb
Applied Economics I Dept., Seville University, E-41018 Seville, Spain
Engineering and Computer Science Dep., Universitat Jaume I, E-12071 Castell´on, Spain
c
Cognitive Systems (CoSy) Research Group, University of Bremen, DE-28334 Bremen, Germany
[email protected], [email protected], [email protected], [email protected]
a
b
Abstract
El m´etodo para la descripci´on cualitativa de formas
or Qualitative Shape Description (QSD) (Falomir,
2011) esta basado en un conjunto de puntos relevantes que delimitan la forma. Este art´ıculo completa un poco m´as dicha descripci´on incorporando
un valor num´erico que cuantifica la importancia
de cada uno de los puntos relevantes dentro de la
forma, es decir, valora la relevancia de cada punto
de forma. Para ello, se lleva a cabo: (1) un proceso de eliminaci´on del punto considerado y (2) se
cualifica c´omo dicha eliminaci´on afecta a la forma
a partir de los puntos adyacentes. Adem´as, se presenta un ejemplo ilustrativo sobre el m´etodo.
1 Introducci´on
Este art´ıculo se enmarca dentro de los trabajos realizados sobre descripci´on cualitativa de formas y colores de objetos
de algunos de los autores con otros investigadores (Falomir,
2011; Falomir et al., 2011, 2012, 2013c,a,b).
El objetivo planteado es ir un paso adelante y buscar un
valor num´erico para cada punto relevante que cuantifique la
importancia que dentro de la forma tiene dicho punto.
2 Descripci´on cualitativa de formas
La descripci´on cualitativa de forma, del ingl´es Qualitative
Shape Description (QSD) analiza la pendiente de los pixels
dentro de los bordes de los objetos (fronteras) y extrae los
puntos relevantes de su forma (para una descripci´on m´as
detallada ver (Falomir, 2011; Falomir et al., 2012)). Cada
punto relevante P es descrito por un conjunto de cuatro caracter´ısticas las cuales pasamos a definir a continuaci´on:
La primera caracter´ıstica es el tipo de conexi´on entre
aristas (Edge Connection (EC)) que se describe a partir de
las siguientes etiquetas: linea linea, si el punto P conecta
dos rectas; linea curva, si P conecta una recta y una curva;
curva linea, si P conecta una curva y una recta; curva curva,
si P conecta dos curvas; o punto curvatura, si P es un
punto de curvatura de una curva.
Si EC no es un punto de curvatura, entonces la segunda
´
caracter´ıstica es el Angulo
(A), el cual se discretiza usando
el sistema de referencia de a´ ngulos (Angle Reference System) o ARS = {◦ , ALAB , AIN T } donde, ◦ (grados) indica
la unidad de medida; ALAB ={muy agudo, agudo, recto, obtuso, muy obtuso} se refiere al conjunto de etiquetas consideradas; y AIN T ={(0, 40], (40, 85], (85, 95], (95, 140], (140,
180]} especifica los intervalos de valores de los a´ ngulos relativo a cada etiqueta.
Si EC es un punto de curvatura, la segunda caracter´ıstica
es el tipo de curvatura (TC) definida por el sistema de referencia de los tipos de curvaturas (Type of Curvature Reference
System) o TCRS = {◦ , TCLAB , TCIN T }, donde ◦ indica la
amplitud en grados del a´ ngulo de curvatura de P ; TCLAB =
{muy agudo, agudo, semicircular, plano, muy plano} se refiere al conjunto de etiquetas definidas; y TCIN T = {(0, 40],
(40, 85], (85, 95], (95, 140], (140, 180]} especifica los intervalos de valores de los a´ ngulos relativos a cada etiqueta.
La tercera caracter´ıstica considerada es la longitud comparada (L) definida a partir del sistema de referencias de
longitudes (Length Reference System) o LRS = {UL, LLAB ,
LIN T }, donde UL o unidad de longitud comparada indica
la relaci´on entre la longitud del primer borde y la longitud del segundo borde que se conectan en el punto P ;
LLAB = {muy corto (msh), medio (half length –hl), un poco
corto (a bit shorter–absh), similar length (sl), un poco largo
(a bit longer–abl), longitud doble (double length–dl), mucho
m´as largo (ml)} indica el conjunto de etiquetas utilizadas para
comparar longitudes; y LIN T = {(0, 0.4], (0.4, 0.6], (0.6, 0.9],
(0.9, 1.1], (1.1, 1.9], (1.9, 2.1], (2.1, ∞)} especifica los intervalos de valores de las longitudes UL relativas a cada etiqueta.
La u´ ltima caracter´ıstica considerada es la Convexidad (C)
en el punto Pj . Si el punto Pj esta en la parte izquierda del
segmento definido por Pj−1 y Pj+1 , entonces Pj es convexo;
en otro caso se dice que Pj es c´oncavo.
Por tanto, la forma completa de un objeto es descrita por
un conjunto de descripciones cualitativas de sus puntos relevantes como: [[EC1 , A1 | TC1 , L1 , C1 ], . . . , [ECn , An | TCn ,
Ln , Cn ]] donde n es el n´umero total de puntos relevantes del
objeto y Ai | TCi denota el a´ ngulo o el tipo de curvatura que
se presenta en el punto Pj .
Un ejemplo de una descripci´on cualitativa de forma de
70
un objeto compuesto por 6 puntos relevantes los cuales
conectan rectas y curvas y proporcionan diferentes longitudes
y a´ ngulos se muestra en la Figura 1.
QSD (Objecto) = [
[linea_curva, obtuso, msh, convexo],
[punto_curvatura, muy_plano, sl, concavo],
[curva_linea, obtuso, ml, convexo],
[linea_curva, agudo, msh, convexo],
[punto_curvatura, muy_plano, sl, convex],
[curva_linea, agudo, ml, convexo] ].
Figura 1: Un ejemplo de descripci´on cualitativa de un objeto
curvil´ıneo en una imagen digital.
3 Una medida de similitud a partir de una
descripci´on cualitativa de formas
Freksa (1991) defini´o que dos t´erminos cualitativos (etiquetas) son vecinos conceptuales si se “puede pasar directamente
de una etiqueta a otra a partir de una transformaci´on continua
sin pasar por ninguna otra etiqueta intermedia”. Por tanto,
a´ ngulos como agudo y recto son vecinos conceptuales ya que
si se va aumentando el valor del a´ ngulo este llega un momento
que pasa a convertirse en a´ ngulo recto.
As´ı, se crean diagramas de vecinos conceptuales o Conceptual Neighbourhood Diagrams (CNDs) que se describen mediante grafos que contienen: (i) nodos que muestran las diferentes etiquetas, y (ii) caminos que conectan pares de nodos
adyacentes que siguen una transformci´on continua a partir de
la cual se pueden asignar pesos para establecer prioridades.
Con las diferentes caracter´ısticas de la descripci´on cualitativa
de formas pueden dise˜narse grafos CND’s (Falomir, 2011)
y a partir de e´ stos obtener matrices de disimilitud entre las
diferentes etiquetas a partir del camino m´ınimo entre nodos.
Como se vi´o anteriormente, la descripci´on cualitativa de la
forma de un objeto se describe a partir de sus puntos relevantes (relevant points– RPs). Por tanto, para definir una medida
de similitud entre formas, primero se define una medida de
similitud entre puntos relevantes.
Dados dos puntos relevantes, denotados por RPA y
RPB , pertenecientes a la formas de dos objetos A y B,
respectivamente, una similitud entre ellos, denotada por
SimRP (RPA , RPB ), es definida como sigue:
�
ds(i)
SimRP (RPA , RPB ) = 1 −
wi
(1)
Ds(i)
Por lo tanto, para comparar dos formas, A y B cuyos
QSDs tienen el mismo n´umero de puntos relevantes (denotado por m), la similud entre A y B, denotada por
SimQSD(A, B), se calcula a partir de (4) como sigue:
Fijado un punto relevante de A, RPAi , i = 1, · · · , m, se
calcula la similitud entre los pares de puntos relevantes del
conjunto
�
Ci = (RPAi , RPB1 ), · · · , (RPAm , RPBm+1−i ), (RPA1 , RPBm+2−i ), · · ·
�
· · · , (RPAi−1 , RPBm )
A partir de estos conjuntos, se define la similitud entre las
formas A y B como


m
1

�
SimQSD(A, B) = max
SimRP (RPA , RPB )
i=1,···,m  m

(RPA ,RPB )∈Ci
En general, si el n´umero de puntos relevantes de las formas
A y B son n y m, respectivamente, y suponemos sin p´erdida
de generalidad que n ≥ m, entonces hay n − m puntos relevantes de A sin su correspondiente punto relevante en B. De
este modo, C es el conjunto de todas las formas posibles de
combinar n − m puntos relevantes de A. De aqu´ı, si c ∈ C,
una nueva forma Ac es considerada tal que Ac esta dada por
todos los puntos relevantes de A menos los n−m puntos relevantes de A dados por la combinaci´on c. Ahora Ac y B tienen
el mismo n´umero de puntos relevantes y se puede calcular la
similitud entre ellos.
A partir del conjunto C y las similitudes entre Ac y B, se
define la similitud entre A y B como:
m
SimQSD(A, B) =
max {SimQSD(Ac , B)}
(2)
n c∈C
Hasta aqu´ı se ha llevado a cabo un resumen de la teor´ıa
cualitativa de formas desarrollada en los art´ıculos anteriormente mencionados. En la siguiente secci´on se aborda el
problema descrito en este art´ıculo y se da una soluci´on a la
ponderaci´on de los puntos relevantes en la descripci´on cualitativa de formas.
4
Importancia del punto relevante
Con el objetivo de ir detallando los desarrollos que siguen nos
basamos en un ejemplo. As´ı consideramos un objeto cuyo
contorno esta delimitado por seis puntos seg´un se puede observar en Figura 2. Para empezar, se ha elegido una forma
1
2
3
4
i∈I
donde ds(i) y Ds(i) representan la disimilitud entre los puntos relevantes y la m´axima disimilitud con respecto a las caracter´ısticas obtenidas a partir de las tablas de disimilitudes
(I = {EC, A ∨ T C, C, L}, respectivamente). Adem´as, los
pesos wi asignados a cada caracter´ıstica cumplen wEC +
wA + wL + wC = 1, wA = wT C y wi ≥ 0.
6
5
Figura 2: Ejemplo de objeto a considerar.
71
la unidad, m´as se diferenciar´an ambos objetos, en cuyo caso
m´as importancia tendr´ıa el punto eliminado.
Por ello, para cada punto Pi del objeto en la Figura 2, se
denota
s2 = SimRP (RPF2 igura1 , RPF2 igura2 )
Figura 3: Objetos que resultan de la eliminaci´on de un punto
del objeto dado en Figura 2.
donde los puntos relevantes conectan l´ıneas con l´ıneas.
En la Figura 3 puede verse como afecta a la forma la eliminaci´on de un punto de su contorno. Evidentemente no todos los objetos son iguales y visualmente se observan muchas
diferencias entre ellos. Por tanto, la eliminaci´on de un punto
del contorno no afecta de igual manera a la forma en que vemos un objeto, y e´ sta es la motivaci´on que nos lleva a cuantificar la importancia que tiene sobre la forma de un objeto
todos y cada uno de sus puntos relevantes.
El contorno dado en Figura 2 tienen 6 puntos relevantes, si
consideramos el punto 1 (esquina superior izquierda) y eliminamos este punto nos queda el objeto de la Figura 4, el cual
tiene 5 puntos.
2
3
y
s6 = SimRP (RPF6 igura1 , RPF6 igura2 )
y se calcula el valor:
u1 = 2 − (s2 + s6 )
Una vez calculados todos los ui , i = 1, · · · , 6 se procede a
asignar un peso al punto relevante i como sigue:
w i = �6
1
i=1
6
�
wi ≥ 0
wi = 1,
i=1
Por tanto, dada una forma A, compuesta por n puntos relevantes se define la importancia de cada punto relevente Pi , y
se denota wi , como
4
1
w i = �n
donde
5
Figura 4: Ejemplo del objeto caso de estudio donde se elimina
el punto de la esquina superior izquierda.
Si quisi´esemos calcular la similitud entre estos dos objetos directamente a partir de la definici´on de similitud entre
dos formas con diferente n´umero de puntos relevantes (5),
tendr´amos que hacer un total de 6 · 5 · 5 = 150 c´alculos de
similitudes entre dos puntos relevantes, lo cual sera muy caro
computacionalmente (si tuvisemos n puntos ser´ıa n · (n −
1) · (n − 1)). Por ello, una soluci´on m´as econ´omica consiste en calcular s´olo la similitudes entre los puntos relevantes adjacentes al punto relevante suprimido, lo cual se reduce
a dos c´alculos de similitudes entre puntos relevantes exclusivamente ya que el resto es uno, puesto que su descripci´on
cualitativa no ha cambiado. As´ı entre las formas dadas en
Figura 2 y Figura 4, habr´ıa que calcular
SimRP (RPF2 igura1 , RPF2 igura2 )
y
SimRP (RPF6 igura1 , RPF6 igura2 )
Si no se hubiese suprimido el punto 1 en el objeto de la
Figura 2, estas similitudes ser´ıan m´aximas (la unidad) ya que
no cambiar´ıa su descripci´on cualitativa. Por tanto, es natural suponer que cuanto m´as alejadas est´en las similitudes de
· ui
con objeto de que todos los wi sumen la unidad y sean todos
positivos, es decir,
i=1
6
ui
ui
(3)
· ui
ui = 2 − (s(i−1)mod(n) + s(i+1)mod(n) )
La situaci´on en general no es tan simple como la presentada con la Figura 2, ya que puede ocurrir que cuando se elimine alg´un punto del contorno del objeto, e´ ste puede resultar
teniendo una descripci´on cualitativa muy diferente, no s´olo
en los puntos adyacentes sino en el resto de la objeto, como
puede verse en Figura 5.
1
2
3
4
5
6
Figura 5: Ejemplo de un objeto donde la eliminaci´on de un
punto de su contorno no es posible de realizar.
En estos casos, es evidente que la eliminaci´on del punto
ha influido no solo en el contorno del objeto y en su interior,
sino en su misma entidad ya que se ha convertido en 3 objetos diferentes conectados por un punto. Por lo tanto, el peso
72
1
2
3
References
4
5
Figura 6: Resultado de eliminar el punto 6 en Figura 5.
Z. Falomir, L. Museros, J. A. Ortega, and F. Velasco. A
model for qualitative colour description and comparison.
In 25th International Workshop on Qualitative Reasoning
(QR), co-located at the 22nd Joint International Conference on Artificial Intelligence (IJCAI), Barcelona, Spain,
July 2011.
que debemos asignarle a este tipo de cambios es el m´aximo
posible, el cual se corresponde con el valor ui = 2, y de aqu´ı
el valor del correspondiente peso se sigue de la expresi´on (3).
De esta forma, cada punto relevante tiene una nueva
caracter´ıstica en su definici´on, su peso wi y, por tanto, la
forma completa de un objeto es determina por un conjunto
de descriptores cualitativos m´as un peso de sus puntos
relevantes como sigue:
Z. Falomir, L. Museros, L. Gonzalez-Abril, M. T. Escrig, and
J. A. Ortega. A model for qualitative description of images
based on visual and spatial features. Computer Vision and
Image Understanding, 116: 698–714, 2012.
[[EC1 , A1 |TC1 , L1 , C1 , w1 ],. . . , [ECn , An |TCn , Ln , Cn ,wn ]]
Z. Falomir, Ll. Musero, L. Gonzalez-Abril, and I. Sanz. A
model for qualitative colour comparison using interval distances. Displays, 34: 250–257, 2013.
donde n es el n´umero total de puntos relevantes del objeto
y Ai | TCi denota el a´ ngulo o el tipo de curvatura que se
presenta en el punto Pj .
Esta nueva caracter´ıstica puede ser tenida en cuenta a la
hora de definir una nueva similitud entre puntos relevantes.
As´ı, dados dos puntos relevantes, denotados por RPA y RPB ,
con pesos wA y wB pertenecientes a las formas de dos objetos
A y B, respectivamente, una similitud entre ellos, denotada
por SRP (RPA , RPB ), se define como sigue:
SRP (RPA , RPB ) = wA · wB · SimRP (RPA , RPB ) (4)
La utilizaci´on de estos pesos hace que se modifique
la expresi´on para el c´alculo de similitudes entre formas.
SimQSD, como sigue:
SQSD(A, B) = max {SimQSD(Ac , B)}
(5)
c∈C
donde ya no es necesario multiplicar por el factor m
n ya que
a trav´es de los pesos se cuantifica la importancia que cada
punto relevante tiene en su correspondiente forma.
5 Trabajo futuro
La continuaci´on de este trabajo de investigaci´on ir´a dirigida a
la implementaci´on de esta nueva caracter´ıstica en todos los algoritmos que actualmente tenemos desarrollados y recalcular
las similitudes sobre los objetos que hemos estado estudiando
en otros trabajos previos.
Agradecimientos
Este trabajo esta subvencionado por el proyecto de investigaci´on nacional Hermes (Healthy and Efficient Routes in
Massive Open-Data Based Smart Cities-Citizen–TIN201346801-C4-1-R), por el proyecto Simon (Saving Energy by
Intelligent Monitoring -P11-TIC-8052). Adem´as de por
la Comisi´on Europea a trav´es de una beca FP7 Marie
Curie bajo el proyecto COGNITIVE-AMI (GA 328763), the
interdisciplinary Trasregional Collaborative Research Center Spatial Cognition SFB/TR 8, the Deutscher Akademischer Austausch Dienst (DAAD), Generalitat Valenciana
(proyectoGVA/2013/135) y Universidad Jaume I (proyecto
P11B2013-29).
Z. Falomir, Ll. Musero, V. Castell´o, and L. Gonzalez-Abril.
Qualitative distances and qualitative image descriptions for
representing indoor scenes in robotics. Pattern Recognition
Letters, 38: 731–743, 2013.
Z. Falomir, L. Museros, L. Gonzalez-Abril, and F. Velasco.
Measures of similarity between qualitative descriptions of
shape, colour and size applied to mosaic assembling. Journal of Visual Communication and Image Representation,
24: 388–396, 2013.
Z. Falomir. Qualitative Distances and Qualitative Description of Images for Indoor Scene Description and Recognition in Robotics. PhD thesis, Universitat Jaume I
(Spain) and Universit¨at Bremen (Germany), November
2011. http://www.tdx.cat/handle/10803/52897.
Christian Freksa. Qualitative spatial reasoning. In David M.
Mark and Andrew U. Frank, editors, Cognitive and Linguistic Aspects of Geographic Space, NATO Advanced
Studies Institute, pages 361–372. Kluwer, Dordrecht,
1991.
73
Conectando el Robot AIBO a ROS: Extracci´on de im´agenes∗
Luc´ıa Lillo-Fantova, Ricardo A. T´ellez, Manel Velasco, Cecilio Angulo
Universitat Polit`ecnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Autom`atica, Barcelona, Spain 08028
[email protected], [email protected],
{manel.velasco, cecilio.angulo}@upc.edu
Abstract
En este documento se realiza una introducci´on al
trabajo realizado con el robot AIBO, de Sony, para
la obtenci´on de im´agenes, as´ı como su tratamiento con el objetivo que el robot navegue de forma
aut´onoma mediante algoritmos de visi´on artificial.
A nivel pr´actico, el principal punto de inter´es del
art´ıculo se centra en el entorno de programaci´on,
que se ha exportado al marco de ROS (Robot Operating System), de forma que se pueda hacer uso de
la extensa biblioteca de algoritmos ya desarrollados
en este entorno.
1.
Introducci´on
Este proyecto surge a partir de la voluntad de recuperar la
funcionalidad del robot AIBO de Sony [Decuir et al., 2004],
actualmente discontinuado en su producci´on y soporte, dentro de un entorno de programaci´on actualizado y potente
[Kert´esz, 2013], as´ı como dotarlo de las herramientas necesarias [Kolovrat, 2013] para proporcionarle la capacidad de
navegar aut´onomamente en un entorno de trabajo mediante
algoritmos de visi´on artificial.
Como se muestra en la Figura 1, a partir del sistema
operativo de AIBO, OPEN-R SDK, se ha integrado el entorno de programaci´on URBI [Baillie, 2005a; 2005b], mediante el cual se enviar´an datos a trav´es de una estructura servidor/cliente entre el robot, servidor, y un ordenador externo, cliente. Los datos recibidos por el cliente deber´an ser almacenados en un buffer temporal para su posterior tratamiento mediante algoritmos en OpenCV [Bradski, 2000], encargado de su transformaci´on en im´agenes interpretables por ROS [Quigley et al., 2009]. La voluntad de
integrar ROS en el proyecto nace como una oportunidad de
poder hacer uso de la gran cantidad de librer´ıas y herramientas que incorpora este sistema operativo para facilitar
la creaci´on de aplicaciones rob´oticas. Entre ellas, nos ofrece
herramientas como SLAM [Huang and Dissanayake, 2007;
Riisgaard and Blas, 2005], SIFT [Flores and Braun, 2011] o
RANSAC, de gran utilidad para el proyecto.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigaci´on PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Econom´ıa
y Competitividad del Gobierno de Espa˜na.
Figura 1: Estructura del modelo de integraci´on del robot AIBO de Sony en ROS.
A partir de aqu´ı se definen una serie de objetivos concisos
a seguir durante el desarrollo del trabajo.
Comparaci´on de las frecuencias de ciclo de ROS para
mejorar tanto la frecuencia de publicaci´on de las im´agenes como del resto de sensores y actuadores.
Optimizaci´on del tama˜no de los buffers para la mejora
de la frecuencia de publicaci´on.
Reducir el retraso en el procesado de las im´agenes para
mejorar la toma de decisiones en tiempo real.
A partir de esta conexi´on y mediante algoritmos de visi´on
artificial se habr´a desarrollado una base o´ ptima de programaci´on para el funcionamiento del robot AIBO en tiempo real.
2.
El robot AIBO
AIBO es un robot cuadr´upedo creado por SONY e introducido en 1999 con el modelo ERS-110 [T´ellez, 2004]. Fue el
primer robot de este tipo en el mercado. Inicialmente SONY
enfoc´o este producto como un robot de entretenimiento para el uso dom´estico, pero tuvo una gran repercusi´on entre la
comunidad cient´ıfica puesto que facilitaba la investigaci´on en
campos como la inteligencia artificial y la interacci´on entre
robots [Zhang and Chen, 2007].
SONY comenz´o su comercializaci´on limitando el acceso
al lenguaje de programaci´on a ellos mismos y a los participantes de la RoboCup. En 2001 retir´o los derechos de autor
al kit de programaci´on del AIBO permitiendo as´ı el uso no
comercial de e´ ste. El kit inclu´ıa los lenguajes de programci´on R-CODE, OPEN-R SDK y el Framework remoto de AIBO. Adem´as de las propias plataformas oficiales de SONY
74
la comunidad de usuarios desarroll´o toda una serie de plataformas sobre el robot para facilitar la programaci´on de e´ ste,
tales c´omo Tekkotsu [Tek, 2014], URBI [Gostai, 2014] o la
compilaci´on cruzada de Webots [Hohl et al., 2006].
El proyecto ideado por SONY u´ nicamente dur´o siete a˜nos,
parando la producci´on en 2006, pero a pesar de la brevedad
lanz´o toda una serie de modelos en tres generaciones de robot
(Figura 2). Pese a la interrupci´on de la fabricaci´on hoy en d´ıa
a´un se encuentran eventos tales c´omo la Convenci´on Internacional de AIBO donde se realizan intercambios de software
open source.
2.2.
Software
El software OPEN-R SDK es el que permite mayor libertad
de programaci´on de entre los subministrados por Sony.
OPEN-R es un lenguaje open source basado en C++ de bajo nivel que permite el acceso y modificaci´on de cualquier
variable del robot. Est´a fundamentado en la creaci´on de objetos que se comunican entre ellos mediante mensajes entre
sujetos y observadores (Figura 3).
Objeto A
Objeto B
Preparado
Datos
Sujeto
Figura 2: Modelos de AIBO en el per´ıodo 1999-2006.
2.1.
Hardware
AIBO presenta un microprocesador de 64 bits funcionando a una frecuencia de 576MHz. La memoria del robot est´a
dividida en dos elementos, una memoria RAM interna para el
desarrollo de funciones de 64MB y una memoria externa de
32MB donde se encuentran los programas a ejecutar por el
robot y que el usuario puede modificar.
Como sensores, dispone de:
un sensor de presi´on en cada una de las patas (pawLF,
pawLH, pawRF, pawRH) y otro en el ment´on (chinSensor), un sensor electrost´atico en la cabeza (headSensor) y otros tres en el lomo (backSensorF, backSensorM,
backSensorR), as´ı como un sensor de temperatura y un
sensor de vibraci´on.
una c´amara CMOS (camera) con par´ametros regulables
como la resoluci´on y el formato de la imagen; infrarrojos para la detecci´on de la distancia, uno en el pecho
(distanceChest), adem´as de otros dos en la cabeza, (distanceNear) y (distance).
un micr´ofono est´ereo en cada oreja con un buffer de
2048 bytes donde se encuentra el u´ ltimo sonido captado.
tres aceler´ometros (accelX, accelY, accelZ).
El robot controla toda una serie de actuadores que afectan
al entorno:
cuatro patas, cada una con tres articulaciones, por tanto
doce motores en total para el control de las extremidades; tres grados de libertad sobre la cabeza; inclinaci´on
de las orejas; dos grados de libertad en la cola; control
de la obertura de la boca. Resultando todo en un total de
20 motores.
red Wi-Fi; micr´ofono para reproducir sonidos guardados
previamente en su Memory Stick; un conjunto de LEDS
para comunicar el estado del robot.
Observador
Figura 3: Comunicaci´on entre objetos con OPEN-R.
Con posterioridad se desarroll´o Tekkotsu, una aplicaci´on
open source para el dise˜no de programas en AIBO. Maneja
tareas de bajo nivel y est´a completamente desarrollada sobre
C++. Con el objetivo que el movimiento del robot AIBO sea
lo m´as fluido posible, se diferencia entre el proceso principal Main, donde se realizan los procesos relacionados con la
aplicaci´on, y el proceso de captaci´on de datos del AIBO MotionManager. La estructura que comunica estos dos procesos
est´a dada por el MotionCommand y se encuentra en una zona
de la memoria compartida por ambos.
URBI, por otra parte, es un software open source generalista para el control de robots y sistemas complejos. Est´a
dise˜nado para realizar tareas en paralelo y est´a dirigido por
eventos, dos de los principales lemas en la programaci´on de
sistemas complejos. Otro de los principales objetivos de este
lenguaje es la compatibilidad entre robots facilitando as´ı la
tarea de programaci´on, pudiendo utilizar los mismos objetos
para diversos robots.
URBI presenta una librer´ıa de componentes UObject escritos en C++ que incorpora un interfaz de programaci´on de
robots que describe motores, sensores y algoritmos est´andars
de robots. Estos objetos pueden ser usados dentro del urbiscript, como elementos locales, o bien como elementos remotos directamente sobre Windows, Linux o Mac OSX para
tener una mayor capacidad de c´alculo.
Urbiscript es el encargado de orquestrar los diversos componentes para que interactuen entre ellos generando as´ı funciones de alto nivel, pero con los dos lemas principales de la
rob´otica nombrados anteriormente en mente.
La elevada compatibilidad de este software se debe a la estructura cliente/servidor de URBI que permite la implementaci´on dentro de cualquier lenguaje de programaci´on que tenga
la capacidad de crear y trabajar con sockets TCP.
La u´ ltima versi´on compatible con el robot AIBO es URBI
1.5, que no permite la implementaci´on directa de URBI como
objeto de ROS (s´ı con URBI 2.1). Es por esto que se trabajar´a
con un cliente de URBI que ser´a quien env´ıara los datos a
ROS.
75
3. Integrando ROS en URBI
ROS, Robot Operating System, incorpora gran cantidad de
librer´ıas y herramientas para facilitar la creaci´on de aplicaciones rob´oticas. En consecuencia se ha optado por la integraci´on de las dos plataformas. Para ello se ha generado un
script de C++ donde se define un cliente de URBI, el ordenador, que ser´a el encargado de recibir y enviar los datos al
servidor, el robot. Para que el robot AIBO sea capaz de interactuar con URBI se ha incorporado un objeto de URBI en la
memoria programable de e´ ste (Memory stick).
La transmisi´on de datos desde el robot AIBO al cliente de
URBI se realiza en primer lugar mediante el establecimiento de una conexi´on cliente-servidor con un socket TCP/IP.
Posteriormente se realizar´an callbacks a las funciones especificadas por el cliente y que devolver´an los datos solicitados.
Finalmente, el cliente tambi´en podr´a enviar o´ rdenes a AIBO.
Paralelamente, tambi´en se ha creado un nodo de ROS dentro del cu´al se dispone de los t´opicos correspondientes a los
diferentes actuadores y sensores. Para finalizar la tarea de publicaci´on de los datos se debe crear una serie de publishers
que publiquen la informaci´on en el t´opico correspondiente,
es decir, env´ıen los datos recibidos por el cliente al nodo de
ROS creado. Por u´ ltimo, s´olo queda cubrir el env´ıo de o´ rdenes a trav´es de ROS el cu´al ser´a realizado con la creaci´on de
subscribers al t´opico que se desee, quienes a su vez enviar´an
´ tambi´en enviar´a la informaci´on
la informaci´on al cliente. Este
al servidor, AIBO, el cu´al finalmente las llevar´a a cabo.
4.
Obtenci´on de im´agenes
El robot AIBO dispone de una c´amara de tecnolog´ıa
CMOS que presenta una resoluci´on de 350000 p´ıxels (480 x
720) [P´erez et al., 2010a; P´erez et al., 2010b]. Las im´agenes
captadas tendr´an que ser convertidas para permitir el procesamiento aplicado posteriormente.
4.1.
ufloat Contiene los valores si los datos enviados son del
tipo DATA DOUBLE. Es el caso de todos los datos enviados por el AIBO a excepci´on de los mensajes de sonido e imagen, es decir, los valores de los sensores y
actuadores.
void* Variable interna que apunta a la zona de almacenaje.
std::string Si la informaci´on enviada es de tipo
DATA STRING se le asocia este tipo.
De entre ellas se seleccionan los datos del tipo
DATA BINARY, representados por mensajes de tipo UBinary
(Figura 4). Finalmente, se escoge la informaci´on del subtipo
UImage.
Figura 4: Obtenci´on de las im´agenes.
Estructura de las Im´agenes
El primer punto a tratar es la transformaci´on de las im´agenes a partir de URBI en un formato adecuado para la publicaci´on en ROS. El formato correspondiente a los t´opicos
de imagen en ROS es sensor msgs::Image. Para realizar la
conversi´on se dispone de la plataforma cv bridge, una librer´ıa de OpenCV que facilita la conversi´on entre im´agenes
de OpenCV a mensajes de ROS. Para esto se debe transformar
igualmente la imagen a cv::Mat o IplImage seg´un la aplicaci´on pero representan el mismo formato. En consecuencia el
primer paso ser´a la transformaci´on de los datos a OpenCV.
Primero se operan los mensajes de URBI de tipo UMessage
donde si el contenido es correcto contendr´a un apuntador al
valor del mensaje. Los datos adquiridos ser´an de tipo UValue
el cu´al contiene varias variables.
UDataType Contiene la informaci´on sobre el tipo de datos enviados.
UDictionary* Contiene los datos si son de tipo
DATA DICTIONARY.
urbi::UBinary Contiene los datos enviados si e´ stos son
de tipo DATA BINARY. Concretamente representa el
caso de la transmisi´on de im´agenes (Cuadro 1).
BINARY UNKNOWN
BINARY IMAGE
BINARY SOUND
struct{
void* data
size t size
}common
data
unsigned char*
size
size t
width
size t
height
size t
imageFormat
UImageFormat
data
char
rate
size t
size
size t
sampleSize
size t
channels
size t
sampleFormat USoundSampleFormat
soundFormat
USoundFormat
Cuadro 1: Tipos de informaci´on dentro de la variable UBinary.
Esta informaci´on ser´a guardada en un buffer de 4 im´agenes ya en formato jpg, por lo que se presentar´a una imagen
76
Resultados
5Hz
7.5 Hz
10 Hz
10
9
8
7
6
5
4
En este apartado se realizar´a un estudio sobre la velocidad
de env´ıo de im´agenes entre el robot AIBO y el ordenador donde corre en n´ucleo de ROS. La frecuencia de publicaci´on de
im´agenes viene limitada principalmente por la capacidad del
propio robot para el env´ıo de im´agenes. Se ha de considerar
que e´ ste se dej´o de fabricar en 2006 y que el u´ ltimo modelo
fue dise˜nado en 2005, por tanto existen limitaciones de hardware que son insalvables en la comunicaci´on cliente-servidor
como son el microprocesador, el m´odulo wi-fi y la calidad de
la imagen.
Inicialmente se ha realizado un primer estudio con un rango de frecuencias de funcionamiento del nodo de ROS cercanas al valor deseado para la publicaci´on de im´agenes que
estar´ıa entorno a los 25Hz.
Tal y como se muestra en la Figura 5, no se ha obtenido
el comportamiento esperado debido a las propias limitaciones del entorno, provocando as´ı ca´ıdas en el env´ıo de datos.
Conjuntamente a esto, se detecta una tendencia negativa de la
frecuencia media de publicaci´on. Esta tendencia se justifica
ya que la conexi´on cliente/servidor es posterior al encendido
del AIBO, hecho que provoca que el buffer interno del robot
se encuentre lleno inicialmente. En consecuencia, en el instante inicial, la frecuencia es la deseada pero posteriormente
no es capaz de adquirir las im´agenes a este ritmo ya que el
robot no es capaz de funcionar a esta frecuencia.
3
0
200
400
600
800
1000
1200
Muestras
1400
1600
1800
2000
Figura 6: Comparativa de las frecuencias de publicaci´on entorno los 7.5Hz.
baja para ciertas aplicaciones. Debido a esto no se ha procedido a estudios posteriores con medidas m´as elevadas de
comprensi´on de la imagen.
Evoluci´
o n temporal seg´
un la frecuenca de ROS
11
5 Hz
7.5 Hz
10 Hz
10
Frecuencia de publicaci´
o n [Hz]
5.
Evoluci´
o n temporal seg´
un la frecuenca de ROS
11
Frecuencia de publicaci´
o n [Hz]
de 3 canales R, G, B que posteriormente ser´a abierta mediante OpenCV y transformada en una imagen de tipo cv::Mat,
tipo obligado para la implementaci´on de las funciones de
la librer´ıa de CV Bridge. Mediante e´ sta transformaremos las
im´agenes a un formato interpretable por ROS y que ser´an enviadas al t´opico de imagen correspondiente.
9
8
7
6
5
4
3
2
1
0
500
1000
1500
Muestras
Figura 7: Comparativa de las frecuencias de publicaci´on entorno los 7.5Hz, con la imagen jpg comprimida al 80 %.
Evoluci´
o n temporal seg´
un la frecuenca de ROS
Frecuencia de publicaci´
o n [Hz]
30
20 Hz
25 Hz
30 Hz
25
6. Conclusiones
20
15
10
5
0
0
200
400
600
800
1000
1200
Muestras
1400
1600
1800
2000
Figura 5: Comparativa de las frecuencias de publicaci´on entorno los 25Hz.
Por todo ello, se realiza un estudio de frecuencias acorde al
ritmo de trabajo del robot, entorno a los 7.5 Hz, reflejado en
la Figura 6.
Finalmente se ha procedido a disminuir la calidad de la
imagen comprimida (jpeg) que env´ıa el robot AIBO para mejorar la velocidad de transmisi´on. Se ha definido una compresi´on del 80 %.
Tal y c´omo se puede observar en la Figura 7 se detecta una
mejor´ıa, que ser´ıa m´as destacable con un factor de compresi´on mayor pero esto implicar´ıa una calidad de imagen muy
En este documento se documenta el trabajo realizado con
el robot AIBO, de Sony, para la obtenci´on de im´agenes, as´ı
como su tratamiento con el objetivo que el robot navegue de
forma aut´onoma mediante algoritmos de visi´on artificial. A
nivel pr´actico, el principal punto de inter´es del art´ıculo se
centra en el entorno de programaci´on, que se ha exportado
al marco de ROS (Robot Operating System), de forma que
se pueda hacer uso de la extensa biblioteca de algoritmos ya
desarrollados en este entorno.
En el apartado de experimentaci´on se ha observado que la
frecuencia o´ ptima de trabajo del nodo de ROS se deber´ıa encontrar entre los 5 y los 7.5Hz para una frecuencia de publicaci´on constante y un nivel de compresi´on de la imagen
del 80 % para mantener unos m´ınimos est´andares de calidad.
Este valor se encuentra alejado de los valores o´ ptimos de trabajo, que se encuentran entorno los 25Hz, lo que comportar´a
limitaciones sobre los algorismos de tratamiento de im´agenes a realizar sobre AIBO. Futuros trabajos deber´ıa incidir en
evitar que la transmisi´on de datos sea el principal cuello de
botella del proceso.
77
Referencias
[Baillie, 2005a] Jean-Christophe Baillie.
Specification. 2005.
URBI Language
[Baillie, 2005b] Jean Christophe Baillie. URBI: Towards a
universal robotic low-level programming language. In
2005 IEEE/RSJ International Conference on Intelligent
Robots and Systems, IROS, pages 3219–3224, 2005.
[Bradski, 2000] G. Bradski. The OpenCV Library.
Dobb’s Journal of Software Tools, 2000.
Dr.
[Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor
Matsuda, and Jon Piazza. A friendly face in robotics:
Sony’s aibo entertainment robot as an educational tool.
Computers in Entertainment, 2(2):14, 2004.
[Flores and Braun, 2011] Pablo Flores and Juan Braun. Algoritmo SIFT : fundamento te´orico. pages 1–5, 2011.
[Gostai, 2014] Gostai. URBI Doc for Aibo ERS2xx ERS7
and URBI 1.0, 2014. Data de consulta: 6 de marc¸ de 2014.
[Hohl et al., 2006] Lukas Hohl, Ricardo Tellez, Olivier Michel, and Auke Jan Ijspeert. Aibo and Webots: Simulation,
wireless remote control and controller transfer. Robotics
and Autonomous Systems, 54(6):472–485, June 2006.
[Huang and Dissanayake, 2007] Shoudong Huang and Gamini Dissanayake. Convergence and Consistency Analysis
for Extended Kalman Filter Based SLAM. IEEE Transactions on Robotics, 23(5):1036–1049, October 2007.
[Kert´esz, 2013] Csaba Kert´esz. Improvements in the native
development environment for Sony AIBO. International
Journal of Interactive Multimedia and Artificial Intelligence, 2(3):51, 2013.
[Kolovrat, 2013] Stipe Kolovrat. Development of Android
Application for Sony Aibo ERS-7 robot. Master’s thesis,
Universitat Polit`ecnica de Catalunya, 2013.
[P´erez et al., 2010a] Xavier P´erez, Cecilio Angulo, and Sergio Escalera. Vision-based Navigation and Reinforcement
Learning Path Finding for Social Robots. PhD thesis, Universitat Polit´ecnica de Catalunya, 2010.
[P´erez et al., 2010b] Xavier P´erez, Cecilio Angulo, Sergio
Escalera, and Diego E. Pardo. Vision-based navigation
and reinforcement learning path finding for social robots.
In Jornadas ARCA 2010, June 2010.
[Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P.
Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: an open-source robot operating system. In ICRA Workshop on Open Source Software,
2009.
[Riisgaard and Blas, 2005] Søren Riisgaard and Morten Rufus Blas. Slam for dummies: A tutorial approach to simultaneous localization and mapping. Technical report, 2005.
[Tek, 2014] Tekkotsu, 2014. Fecha de consulta: 18/06/2014.
[T´ellez, 2004] Ricardo A. T´ellez. Aibo Quickstart Manual.
Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004.
[Zhang and Chen, 2007] Jiaqi Zhang and Qijun Chen. Learning based gaits evolution for an AIBO dog. 2007 IEEE
Congress on Evolutionary Computation, pages 1523–
1526, September 2007.
XVI Jornadas de ARCA
78
79
Qualitative Simulation of a Sentiment Analysis Theory
Ismael Sanz, Lledó Museros
Universitat Jaume I
Castelló de la Plana, Spain
{isanz,museros}@uji.es
Abstract
This paper presents a qualitative sentiment analysis theory
based in a well-known sentic computing theory presented in
[1]. This theory is simulated in order to determine the sentiment polarity (negative, neutral or positive sentiment) of a
tweeter message.
1. Introduction
Sentiment analysis refers to the use of natural language
processing, text analysis and computational linguistics to
identify and extract subjective information in source materials. Generally speaking, sentiment analysis aims to determine the attitude of a speaker or a writer with respect to
some topic or the overall contextual polarity of a document.
The attitude may be his or her judgment or evaluation, affective state (that is to say, the emotional state of the author
when writing), or the intended emotional communication
(that is to say, the emotional effect the author wishes to have
on the reader).
With the boom of the Web 2.0, users are more and more
active in the web by interacting, sharing and collaborating
through social networks, blogs, wikis, and other collaborative media. With this collaboration a “collective intelligence” has emerge in the web. By collective intelligence it
is understand the intelligence that emerges from the collaboration, collective efforts, and competition of many individuals. This collective intelligence has spread to many different
areas in the Web, as commerce, politics, tourirm, education,
health, and so on. For instance, users usually perform the
on-line review of services and products, and even spread
politics opinion. All these contribution are valuable for
future buyers or voters. The distillation of knowledge from
the huge amount of unstructured information on the Web
can be a key factor for tasks such as social media marketing,
branding, product positioning, and corporate reputation
management. For instance, in the tourism sector a sentiment
analysis theory would help to determine: (i) if a Social Media Marketing1 campaign has succed; and (ii) the opinion of
1
SMM refers to the process of gaining website traffic or attention through
social media sites
Luis González-Abril
Universidad de Sevilla
Sevillla, Spain
[email protected]
the clients (of a hotel, travel agency, transport company, and
so on) that can influence to other future clients.
But, these online social data, however, remain hardly accessible to computers, as they are specifically meant for human
consumption.
Therefore, to develop a sentiment analysis theory able to
give this type of information to the companies is a valuable
tool for business decision-making. Recently, in the literature
have appeared approaches dealing with the development of
sentiment analysis theories. An Emotion Ontology (EMO)
has been developed in [2]. [3] reviews past, present, and
future trends of sentiment analysis. It covers common tasks
for sentiment analysis along with the main approaches, and
discusses the evolution of different tools and techniques—
from heuristics to discourse structure, from coarse- to finegrained analysis, and from keyword to concept-level opinion mining. The article also discusses the emergence of
multimodal sentiment analysis and considers future tendencies. In [4] a two-step method combining iterative regression and random walk with in-link normalization is proposed to build a concept-level sentiment dictionary. ConceptNet is exploited for propagating sentiment values based
on the assumption that semantically related concepts share
common sentiment. Another peculiarity of the article is that
it uses polarity accuracy, Kendall distance, and averagemaximum ratio, instead of mean error, to better evaluate
sentiment dictionaries. Chihli Hung and Hao-Kai Lin [5]
propose the re-evaluation of objective words in SentiWordNet2 by assessing the sentimental relevance of such words
and their associated sentiment sentences. Two sampling
strategies are proposed and integrated with support vector
machines for sentiment classification. Bosco, Patti and
Bolioli [6] focuses on the main issues related to the development of a corpus for opinion mining and sentiment analysis both by surveying existing works in this area and presenting, as a case study, an ongoing project for Italian,
called Senti-TUT, where a corpus for the investigation of
irony about politics in social media is developed. Amigó
and his colleagues presents in [7] presents the results of the
2 SenticWordNet is a lexical resource for opinion mining. SentiWordNet
assigns to each synset (cognitive synonyms) of WordNet (a large lexical
database of English) three sentiment scores: positivity, negativity, objectivity.
80
second RepLab competitive evaluation campaign for Online
Reputation Management systems (RepLab 2013), which is a
competition focused on the process of monitoring the reputation of companies and individuals, and asks participating
systems to annotate different types of information on tweets
containing the names of several companies.
Cambria and his colleagues presented in [1] a sentic computing theory for social media marketing. Sentic computing
uses a common sense reasoning [8] approach coupled with a
novel emotion categorization model [9].
Emotions are subjective and qualitative in nature, and the
use of common sense, suggested us that qualitative reasoning could be suitable to manage this type of information.
Therefore, this paper presents a qualitative interpretation of
the sentic computing work presented in [1]. This interpretation is simulated in order to test its behavior when determining the polarity of a text.
2. Qualitative Sentiment Analysis Theory
The sentic computing theory in [1] is based in the Hourglass
of Emotions (Figure 1). This model constitutes an attempt to
emulate Marvin Minsky’s conception of emotions. The
Hourglass of Emotions is specifically designed to recognize,
understand and express emotions in the context of humancomputer interaction (HCI). In the model, in fact, affective
states are not classified, as often happens in the field of
emotion analysis, into basic emotional categories, but rather
into four concomitant but independent dimensions—
Pleasantness, Attention, Sensitivity and Aptitude—in order
to understand how much respectively:
1. the user is amused by interaction modalities (Pleasantness)
2. the user is interested in interaction contents (Attention)
3. the user is comfortable with interaction dynamics (Sensitivity)
4. the user is confident in interaction benefits (Aptitude)
sity of the emotion. The concomitance of the different affective dimensions makes possible the generation of compound
emotions such as ‘love’, which is given by the sum of ‘joy’
and ‘trust’, or ‘aggressiveness’, given by the concomitance
of ‘anger’ and ‘anticipation.
Sentic computing theory in [1] determines the sentimental
polarity of a text by applying Cambria’s formula:
where each concept represents the affective valence for each
sentic dimension of the term oi in the text; N is the total
number of retrieved concepts and 9 is the normalization
factor (the maximum value of the numerator in fact is given
by the sentic vector [3, ±3, 0, 3] and the minimum by [−3, 0,
±3, −3]). In the formula, Attention and Sensitivity are taken
in absolute value since, from the point of view of polarity
rather than affection, all of their sentic values represent
positive and negative values respectively (e.g. ‘anger’ is
positive in the sense of level of activation of Sensitivity but
negative in terms of polarity and ‘surprise’ is negative in the
sense of lack of Attention but positive from a polarity point
of view).
In order to create a qualitative version of this sentic computing theory, Garp3 software [10] has been used, which is a
workbench for building, simulating, and inspecting qualitative models.
As Cambria’s formula uses Attention and Sensitivity dimension as absolute values, it has been implemented using
Garp3 defining the Model Fragment Tree shown in Figure
2. This means that a negative or a positive value of the attention dimension (AttentionN and AttentionP respectively)
have the same effect in the polarity of the text, in this case
they have a positive influence in the result (Figure 3 and 4).
The same happens with the dimension sensitivity, but in this
case they have a negative influence (Figure 5 and 6).
Figure 2. Model Fragment Tree for Cambria Sentic Computing Theory.
Figure 1. Hourglass of Emotions.
Each affective dimension is characterized by six levels of
activation, called ‘sentic levels’, which determine the inten-
Using Garp 3 it is also necessary to define the system scenario (Figure 7), which defines the different model dimensions (emotional categories in this case). In the scenario the
influence of each emotional dimension is defined. In this
case, we have make a qualitative reference system for each
dimension. This qualitative reference system is defined by
three symbols, which are {plus, zero, min}, the symbol
81
“plus” means that the dimension has a big value, “zero”
means that the dimension does not appear or it can be discarded, and “min” means that the dimension has a low
value.
the final polarity of this sentence is positive. But the model
can also presents uncertainty, for instance when: pleasantness = Zero; attention = Min; sensitivity = Plus ; aptitude =
Plus, then the model return three possible solution: positive,
neutral and negative. This happens because the system is not
able to determine for instance if a positive value in a dimension is bigger or smaller than a negative value of another
dimension.
Figure 5. SensitivityN polarity influence
Figure 3. AttentionN polarity influence.
Figure 6. SensitivityP polarity influence
Figure 4. AttentionP polarity influence.
If the scenario is executed without indicating a initial qualitative value for each sentiment dimension, then the program
returns all the possible combinations that the four emotional
categories can generate and the polarity associate to each
combination (Figure 8). This means that the program calculates between 81 and 243 solutions (81*3).
If the user wants to find an specific solution, then it is necessary to indicate the qualitative value (Plus, Zero or Min)
of each emotional category in the initial scenario. As an
example, if a sentence has next values: pleasantness = Zero;
attention = Min; sensitivity = Zero; aptitude = Plus, then,
Figure 7. System Scenario
82
Figure 8. Extract of the system result when no initial values
are given to the sentiment dimensions.
3. Experiments and Results
We have test the qualitative simulator created to analyze the
polarity of tweeter messages about the sales of the new
Samsung Galaxy 5 mobile phone. The sentences analyzed
are in Spanish, and they are the ones shown in figure 9.
Figure 10. Words considered in the tweets (first column is
the word, second one the sentiment dimension for this word,
and third one the quantitative value assigned).
Figure 11. Initial scenario for analyzing the tweets.
Figure 12. Result of the simulation.
Figure 9. Sentences analyzed.
For each sentence in Figure 9, the words in Figure 10 are
considered by giving them the values for sentiment dimensions that can be seen in the same figure. Using the quantitative formula of Cambria the polarity of the sentences in
general is very positive. Then, what we have done is to
translate the values in Figure 10 to the corresponding qualitative ones, and the experiment has been executed in order
to determine the polarity (Figure 11). And the solution of
the qualitative simulation is the one shown in Figure 12. As
it can be seen the polarity is also positive, which means that
the system works similarly to the quantitative one.
4. Conclusions and Future Work
This paper presents a qualitative simulation of the sentiment
analysis theory presented in [1]. The experiments done
demonstrate that the simulation obtains similar results than
the original one. This means, that the theory has been qualitatively well simulated using Garp3, but by developing a
qualitative theory we have added semantics to the method.
As future work we intend to improve the qualitative theory
presented by defining different granularity levels (for instance use more than 3 levels for the qualitative values).
Also, our intention is to apply the new theory not only to
determine the general polarity of a text about the quality of a
product, but also the polarity of the individual features of
this product.
83
Acknowledgements
This work has been partially supported by the Andalusian
Regional Ministry of Economy (project SIMON TIC-8052),
the Spanish Ministry of Economy and Competitiveness
(under project number TIN2011-24147), by Universitat
Jaume I-Fundació Bancaixa (under project number
P11B2013-29), and by Generalitat Valenciana under project
GVA/2013/135.
References
[1] E. Cambria, M. Grassi, A. Hussain, and C. Havasi.
Sentic Computing for Social Media Marketing. Multimedia
Tools and Applications, Volume 59, Issue 2, pp. 557-577,
July 2012.
[2] J. Hastings, W. Ceusters, B. Smith, and K. Mulligan.
The Emotion Ontology: Enabling Interdisciplinary
Reasearch in the Affective Sciences. Modelling and Using
Context. Lecture Notes in Computer Sicence, Volume
69677, pp. 119-123, 2011.
[3] E. Cambria, B. Schuller, Y. Xia, and C. Havasi, New
Avenues in Opinion Mining and Sentiment Analysis,
Knowledge-Based Approaches to Concept-Level Sentiment
Analysis, IEEE Computer Society, pp.15-21, March/April
2013.
[4] A. Charng-Rurng Tsai, C. Wu, R. Tzong-Han Tsai, and
J. Hsu, Building a Concept-Level Senitment Dictionay
Based on Commonsense Knowledge, Knowledge-Based
Approaches to Concept-Level Sentiment Analysis, IEEE
Computer Society, pp.15-21, March/April 2013.
[5] C. Hung, and H. Lin, Using Objective Words in SentiWordNet to Improve Word-of-Mouth Sentiment Classification, Knowledge-Based Approaches to Concept-Level
Sentiment Analysis, IEEE Computer Society, pp.15-21,
March/April 2013
[6] C. Bosco, V. Patti, and A. Bolioli, Developing Corpora
for Sentiment Analysis: The Case of Irony and Senti-TUT,
Knowledge-Based Approaches to Concept-Level Sentiment
Analysis, IEEE Computer Society, pp.15-21, March/April
2013.
[7] E. Amigó, J. Carrillo de Albornoz, I. Chugur, A.
Corujo, J. Gonzalo, T. Matín, E. Meij, M. de Rijke, and D.
Spina. Overview of RepLab 2013: Evaluating Online Reputation Monitoring Systems. Information Access Evaluation.
Multilinguality, Multimodality and Visualization. Lecture
Notes in Computer Science Volume 8138, pp. 333-352,
2013.
[8] E. Cambria, A. Hussain, C. Havasi, C. Eckl. Common
sense computing: from the society of mind to digital intuition and beyond. In Lecture Notes in Computer Science,
Volume 5707, pp.252-259, 2009.
[9] E. Cambria, A. Hussain, C. Havasi, C. Eckl. SenticSpace: visualizing opinions and sentiments in a multidimensional vector space. In Lecture Notes in Artificial
Intelligence, Volume 6279, pp. 385-393, 2010.
[10] Garp
3
download
https://ivi.fnwi.uva.nl/tcs/QRgroup/QRM/software/,
visited October 2014.
page
last
XVI Jornadas de ARCA
84
85
Sincronizaci´on de Robots AIBO. Un Estudio Comparativo∗
˜
Diego Munoz,
Manel Velasco, Cecilio Angulo
Universitat Polit`ecnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Autom`atica, Barcelona, Spain 08028
[email protected], {manel.velasco, cecilio.angulo}@upc.edu
Abstract
El trabajo tiene por objetivo implementar un conjunto de m´odulos de software que permitan integrar
la plataforma rob´otica AIBO en el marco de trabajo
ROS (Robot Operating System). El problema principal radica en el m´etodo utilizado para comunicarlos. Inicialmente se estudiaron los diferentes software alternativos con los que poder operar. Luego
se compararon varios m´etodos de programaci´on, de
forma que un an´alisis cuantitativo permiti´o decidir
el m´etodo m´as adecuado. Finalmente se implementaron los m´odulos que facilitan la integraci´on con
ROS. Por un lado el m´odulo de control, al que se
le han aplicado unos criterios de valoraci´on y se
ha puesto a prueba su funcionamiento, y por otro
el m´odulo que facilita la integraci´on de un modelo
de visualizaci´on 3D. Con todo este trabajo desarrollado, se realiz´o la aplicaci´on de sincronizaci´on de
movimientos de un par de robots AIBO y se realizaron experimentaciones que muestran la bondad
del trabajo desarrollado.
1.
Introducci´on
Ocho a˜nos despu´es de la retirada del mercado de la mascota rob´otica por excelencia, el robot AIBO, de la compa˜n´ıa
japonesa Sony [Decuir et al., 2004; Arevalillo-Herr´aez et al.,
2011], e´ stos permanecen encerrados en los armarios de muchos equipos de investigaci´on, a pesar que en su d´ıa le sacaron un gran provecho tecnol´ogico. Desde el Departamento
de Autom´atica de la Universitat Polit`ecnica de Catalunya se
ha lanzado una iniciativa global que tiene como objeto la recuperaci´on de esta plataforma rob´otica para su uso en investigaci´on y docencia. Mediante el uso de una comunicaci´on
inal´ambrica, se facilitar´a el procesado de la carga de trabajo
con mayores requerimientos en un procesador externo, mientras se continuan haciendo uso de las funcionalidades que hicieron de AIBO el producto rob´otico m´as sofisticado puesto
en el mercado.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigaci´on PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Econom´ıa
y Competitividad del Gobierno de Espa˜na.
El objetivo del presente estudio es realizar un demostrador
del sistema en una tarea de sincronizaci´on de dos robots AIBO. Para llegar a esta meta es necesario ser capaz de adquirir
los datos de las articulaciones y dem´as sensores de uno de
los robots a la mayor velocidad posible, as´ı como enviar los
valores de control de las articulaciones al segundo AIBO. Para ello se han probado y analizado un conjunto de posibles
lenguajes de programaci´on / comunicaci´on que permiten la
intercomunicaci´on del robot AIBO con ROS.
Con este fin, se han implementado una serie de experimentos que permitir´an decidir qu´e m´etodo de adquisici´on de datos es m´as efectivo. La comparativa se ha basado en criterios
como
la frecuencia media de lectura, x
¯
los intervalos de congelaci´on en la lectura,
la frecuencia m´axima de env´ıo,
la capacidad de transmisi´on, y
el retraso en el seguimiento de trayectorias.
Estos experimentos se han estructurado sobre un paradigma cliente servidor. En el que el cliente es el PC que contiene
ROS y el servidor de datos es la plataforma AIBO.
AIBO soporta varios m´etodos para la extracci´on de datos
hacia el PC. De entre ellos se ha elegido utilizar URBI [Baillie, 2005] y conexi´on directa utilizando telnet. Esta elecci´on
est´a fundamentada en la facilidad que presentan estos dos sistemas frente a m´etodos m´as complejos de comunicaci´on.
Los m´etodos comparados en los experimentos han sido:
Cliente implementado en C++ usando la librer´ıa liburbi.
Dos clientes implementados en C++ usando la librer´ıa
liburbi, una para la escritura y otro para la lectura.
Comunicaci´on usando telnet sobre un script de python.
Finalmente se ha optado por trabajar con URBI debido a
que permite una comunicaci´on sencilla entre el servidor, el
AIBO, y un cliente externo.
Una vez alcanzado el anterior prop´osito y en aras de poner
de manifiesto los resultados de los experimentos precedentes
se realizaron algunos ejemplos de sincronizaci´on:
Imitaci´on de un robot AIBO a otro: esta aplicaci´on requiere de una gran fluidez en el trafico de datos, convirti´endose as´ı en un excelente indicador del grado de
capacidad de sincronizaci´on que es posible adquirir.
86
Coordinaci´on de movimientos para una tarea: este caso aportar´a una visi´on m´as u´ til de la sincronizaci´on de
robots para realizar tareas.
Con el objetivo u´ ltimo de conseguir una comunicaci´on entre robots AIBO de forma intuitiva a la vez que proporcionar una serie de herramientas muy u´ tiles en los entornos de
rob´otica m´ovil actuales, se usar´a ROS (Robot Opetating System) [Quigley et al., 2009] como capa intermedia de la programaci´on. Esta extensi´on facilitar´a la implementaci´on de las
aplicaciones anteriormente descritas, as´ı como hacer uso de
todas las librer´ıas ya existentes en este entorno est´andar de
programaci´on.
Por u´ ltimo, indicar que el trabajo aqu´ı iniciado permite
una r´apida extensi´on hacia esquemas de rob´otica en la nube (cloud robotics) y de computaci´on en red que son del todo
interesantes de explorar.
2. El robot AIBO
La plataforma de estudio AIBO ha permitido la realizaci´on de numerosos proyectos de investigaci´on, de ´ındole muy
diversa. Mayoritariamente se han llevado a cabo proyectos
relacionados con visi´on artificial [P´erez et al., 2010] y comportamientos en inteligencia artificial [T´ellez et al., 2006]. Un
punto esencial en el desarrollo del robot AIBO fue que durante el per´ıodo comprendido entre 1999 y 2008 fue la plataforma elegida para realizar la competici´on RoboCup Standard
Plataform League, posteriormente sustituido por la plataforma NAO de Aldebaran. Tambi´en en la prueba de simulacros
de rescate, AIBO tuvo una gran acogida [Nardi and Lima,
2012]. La RoboCup fue fuente de inspiraci´on para m´ultiples
investigaciones que se pueden clasificar en tres grupos seg´un
su finalidad:
Visi´on y reconocimiento de marcas para la posterior ubicaci´on dentro del campo [Morales-Jim´enez, 2007].
Comunicaciones y control
[Mart´ınez G´omez, 2006].
de
los
movimientos
Definici´on de roles dentro del campo [Montero-Mora et
al., 2009].
Actualmente el robot AIBO ha ca´ıdo en desuso, en parte
por dejar de ser plataforma de la RoboCup y en parte porque
dej´o de ser mantenido por parte del fabricante. Las nuevas actualizaciones de los softwares que lo soportaban han dejado
de ser compatibles, incluso aquellos que nacieron especialmente para el AIBO. As´ı es el caso de URBI, que desde la
version 1.5, su librer´ıa liburbi no es compatible. Igualmente
gran parte de la documentaci´on de estos lenguajes ya no se
encuentra en la red.
Han existido intentos de recuperar la plataforma AIBO, como es el caso de un proyecto que trataba de hacer compatible la version 2.3 de liburbi para AIBO [Kecsap, 2010]. Otro
proyecto trataba de realizar la integraci´on mediante EusLisp
a ROS de varias plataformas, entre ellas AIBO. Sin embargo
es muy escasa o ninguna la documentaci´on referente a ello
[Kert´esz, 2013].
3.
Comparaci´on de alternativas para la
programaci´on
Con la finalidad de implantar ROS en AIBO se plantea una
primera elecci´on del camino a seguir: (1) un n´ucleo de ROS
embebido, es decir que sea en el propio AIBO donde se ejecute el proceso, (2) un n´ucleo de ROS en un ordenador remoto
y comunicaci´on entre ambos mediante una arquitectura cliente/servidor.
Para explorar la opci´on de un sistema embebido se ha buscado un punto de acceso al hardware con la intenci´on de instalar una distribuci´on linux. Sin embargo el u´ nico punto de
acceso encontrado no respond´ıa a ning´un est´andar, por lo que
se desiste su utilizaci´on. As´ı, s´olo es posible usar una arquitectura cliente/servidor con el m´odulo de ROS ejecut´andose
en el cliente y adquiriendo de forma sencilla y r´apida el estado del AIBO y actuando sobre e´ l.
Pese a que existen diferentes posibilidades de programaci´on (OPEN-R, Tekkotsu, URBI), e´ ste u´ ltimo tiene la ventaja
de que no ser´ıa necesario desarrollar el servidor ya que el sistema operativo interact´ua de forma remota. Adem´as, el uso de
URBI es relativamente sencillo, tanto desde el terminal como
con el uso de la librer´ıa de C++. Tambi´en existe bastante documentaci´on. El u´ nico problema que se ha detectado es que
la librer´ıa liburbi 1.5, la m´as reciente que es compatible con
AIBO, no es compatible con un sistema linux de 64 bits.
Una vez escogido URBI como lenguaje de desarrollo, se
plantean dos opciones:
Usar liburbi con C++.
Usar un script de python que use la terminal de URBI
bajo una conexi´on telnet.
Para determinar la opci´on a elegir se realizaron una serie de
experimentos comparativos sobre la eficacia de las comunicaciones de ambos m´etodos. Los experimentos se realizaron en
ambas direcciones de la comunicaci´on, por un lado la lectura
y por otro el env´ıo.
3.1.
Lectura de datos
De los datos obtenidos de las 15 r´eplicas experimentales
de cada uno de los dos m´etodos probados se han obtenido
las diferencias de tiempos entre un dato y el siguiente y se
traduce a frecuencia calculando el inverso.
Los resultados mostraron claramente que con el uso de
liburbi se alcanzan frecuencias medias m´as altas (¯
x =
13,611Hz y σ = 13,271 para liburbi y x
¯ = 3,000Hz y
σ = 2,763 para python) en la mayor´ıa de r´eplicas. Adem´as,
la mayor´ıa de datos se env´ıan m´as r´apidos como se refleja en
los valores de las medianas de liburbi que son mayores que
los valores del tercer cuartil del metodo python. Por otro lado, los valores m´ınimos de cada m´etodo son muy similares y
la variabilidad de los resultados de liburbi es mayor.
Tan importante como los valores medios de las frecuencias
es comprobar si se producen bloqueos en la comunicaci´on, es
decir si durante un cierto per´ıodo de tiempo no se actualiza la
variable. Para verificar si se producen bloqueos es necesario
atender a los valores m´ınimos de las series. Aparentemente
liburbi presenta unos valores m´ınimos m´as bajos, sin embargo
el an´alisis de la varianza (ANOVA) de los m´ınimos indica que
87
no se corresponden con poblaciones distintas, por lo que se
acepta la hip´otesis nula (p valor = 0,4 y I.C. = 95 %).
3.2.
Env´ıo de datos
El segundo experimento consiste en enviar una trayectoria
sinusoidal punto a punto a una articulaci´on y comprobar la
respuesta. Para capturar los resultados se leer´a la respuesta de
la articulaci´on usando los m´odulos de lectura del experimento
anterior.
En este experimento se ha contado con 3 posibles opciones
de programaci´on. Esto es as´ı debido a que la terminal de URBI usando un cliente telnet con python no permite la lectura
y escritura simult´anea, y en consecuencia se han tenido que
desarrollar dos clientes telnet. Aunque si bien liburbi permite
la lectura y escritura por un solo cliente, se ha considerado
oportuno a˜nadir un programa con dos clientes, equivalente al
m´etodo utilizado con python.
En s´ıntesis, los programas que se van a utilizar son los siguientes:
Python con un cliente telnet para lectura y otro para escritura.
C++ con un cliente URBI tanto para lectura como para
escritura.
C++ con un cliente URBI para lectura y otro para escritura.
El experimento se ha repetido cambiando la frecuencia a la
que se env´ıan los puntos de la trayectoria. Los valores de las
frecuencias utilizados son: 1, 2, 5 y 10 Hz. Se han omitido
mayores velocidades ya que el movimiento a una frecuencia
de mas de 10 Hz era inconstante y discontinuo. Con la finalidad de obtener una mayor fiabilidad en los resultados se han
realizado 3 r´eplicas por m´etodos y frecuencia. Se han descartado los experimentos en los que se ha producido un bloqueo.
De los resultados obtenidos se pueden distinguir dos tipos
de errores que provocan que la trayectoria realizada no sea la
correcta:
La articulaci´on no se mueve.
No se recibe la posici´on actual. En este caso no se puede
saber si la articulaci´on se ha movido1 .
Se puede concluir que el seguimiento de la trayectoria es
independiente de la frecuencia utilizada en este rango. Por
otro lado tambi´en se observa que con un solo cliente liburbi
se producen grandes bloqueos en la recepci´on y muestra una
trayectoria m´as discontinua e inconstante. En lo que respecta
a los otros dos m´etodos, dos clientes con liburbi y python,
tienen un comportamiento aceptable y no se puede concluir
que uno sea mejor que otro.
Para discernir cual de los dos m´etodos es m´as eficiente se
han analizado las diferencias de tiempo entre el momento en
que se env´ıa la orden de los picos de la sinusoide y el momento en que se recibe que ha llegado a dicha posici´on. Para comprobar si existe diferencia entre las series se realiza
una ANOVA sobre los datos. Con un intervalo de confianza
del 95 % el p-valor es de 2,1e-7, por lo tanto no se acepta la
1
Por inspecci´on visual se ha comprobado que ambos errores son
independientes.
hip´otesis nula y se puede concluir que el retraso con C++ es
significativamente menor.
En s´ıntesis, el m´etodo liburbi se ha demostrado m´as eficaz
en lo relativo a la recepci´on de datos, muestra un comportamiento similar a python en el seguimiento de las trayectorias
con el uso de dos clientes y adem´as se obtiene un retraso de
seguimiento menor que python estad´ısticamente significativo. Adicionalmente, se ha de tener en consideraci´on que el
paquete ser´a m´as complejo que los programas utilizados en
los experimentos y dado que C++ se ejecuta a mayor velocidad que python las diferencias de ejecuci´on podr´ıan llegar
a ser cr´ıticas. En consecuencia la librer´ıa liburbi usando dos
clientes es el m´etodo elegido para implementar el paquete de
ROS.
4.
Implementaci´on en ROS
ROS es el acr´onimo de Robot Operating System, que lejos
de ser un sistema operativo es m´as bien un marco de trabajo que proporciona unas herramientas y unas librer´ıas para
ayudar a desarrollar software para aplicaciones de rob´otica.
Proporciona entre otras facilidades abstracciones de hardware, controladores para dispositivos, herramientas de visualizaci´on, comunicaci´on por mensajes, administraci´on de paquetes
y todo ello bajo licencia de software libre. La principal caracter´ıstica sobre ROS es su sistema de comunicaci´on. A bajo nivel est´a basado en el pase de mensajes que pueden ser le´ıdos
por diversos procesos simult´aneamente. Dichos mensajes se
escriben sobre unos canales de comunicaci´on llamados topics
a los que se puede acceder mediante m´etodos de publicaci´on
y subscripci´on. Sobre los t´opicos se puede publicar o subscribir desde un terminal o bien cualquier objeto de ROS, denominados nodes. Todos los programas que se ejecutan sobre
ROS deben ser creados dentro de un paquete (package).
4.1.
Paquete aibo server
Se pretende implementar un paquete que se conecte al robot AIBO dentro de una red local. Una vez conectado debe
recoger los datos enviados por el servidor URBI del robot y
publicarlos sobre una serie de t´opicos. De forma inversa debe
tratar los valores de las articulaciones del t´opico al que est´a
subscrito y enviarlos al servidor con el fin de actuar sobre la
plataforma (ver Figura 1).
La implementaci´on del paquete de ROS se realiza usando
liburbi y dos clientes, uno para la recepci´on y otro para el
env´ıo. La estructura del programa implementado se puede ver
en la Figura 2.
Por lo que respecta la adquisici´on de los valores de sensores y articulaciones, se han conseguido obtener trabajando a
una frecuencia de 10Hz. Con objeto de verificar que el refresco de los t´opicos es correcto se ha accedido a mostrar por el
terminal todos ellos junto con su frecuencia de refresco.
Para realizar una valoraci´on del env´ıo de las posiciones se
necesita de un paquete de ROS que permita cuantificar los
resultados. El test aplicado es similar al realizado en las experimentaciones de la Secci´on 3. Se trata de enviar punto a
punto una trayectoria sinusoidal a las posiciones de una articulaci´on. Para la realizaci´on del test se ha implementado un
sencillo programa que crea un nodo que publica sobre el t´opi-
88
Figura 3: Estructura de ROS con los nodos aibo server y SinLeg.
Figura 1: Nodo aibo server.
Figura 4: Entrada y respuesta del sistema ante una se˜nal sinusoidal enviando puntos a 10Hz.
Figura 2: Estructura b´asica del ejecutable aibo server.
co /aibo server/aibo/subjoints/jointRF1. La
estructura entre los nodos se muestra en la Figura 3.
De los resultados obtenidos en la realizaci´on de varias
r´eplicas a diversas frecuencias se deduce que el seguimiento de la trayectoria lleva un retraso m´ınimo entorno a los 0.5
segundos, dato que coincide con el retraso medio obtenido en
las experimentaciones de la subsecci´on 3.2.
Por otro lado el modulo implantado no ha mejorado los
resultados obtenidos en la subsecci´on 3.2 en lo relativo a los
bloqueos (Figura 4). Por lo tanto, cabe concluir que el m´odulo
no proporciona las condiciones necesarias para aquellas aplicaciones en las que se requiere una lectura y una respuesta
r´apida del sistema.
4.2.
Paquete aibo description
Este paquete pretende ser el v´ınculo entre el robot AIBO y
una de las herramientas m´as usadas de ROS para robots m´ovi-
les, rviz2 , un visualizador 3D para aplicaciones de rob´otica
que permite visualizar un modelo, el entorno sensado o un
mapa virtual. El paquete consta de dos partes diferenciadas,
la creaci´on del modelo de AIBO para su representaci´on en
imagen 3D y la implementaci´on de un nodo que sincronice el
modelo con el robot.
Para generar un modelo, se debe editar un fichero xml con
formato URDF3 (Unified Robots Description Format) donde se especifican las dimensiones del robot, las articulaciones y sus movimientos, la geometr´ıa de las extremidades y
par´ametros f´ısicos como la masa o la inercia. Para el modelo
de AIBO se han creado 22 partes y 21 articulaciones. Se han
descartado en el modelo la boca y las orejas.
En cada una de las partes se debe definir la geometr´ıa y
sus dimensiones. Con el fin de darle un aspecto visual m´as
atractivo y mas semejante al robot AIBO real la geometr´ıa ha
sido definida mediante archivos stl que contienen las figuras
de cada una de las partes. A partir de un modelo s´olido se han
dividido y modificado algunas piezas usando los softwares de
apoyo FreeCAD4 y Netfabb5 . El resultado desde la ventana
de rviz se muestra en la Figura 5.
El nodo state publisher est´a creado mediante un programa
escrito en C++ (state publisher.cpp) y est´a subscrito al t´opico
/aibo server/aibo/joints, donde se encuentran las
posiciones de las articulaciones del robot real, y las publica
en un t´opico llamado joint states al que accede rviz.
Adem´as env´ıa la transformada del modelo cinem´atico.
En la Figura 6 se puede observar c´omo queda la estructura
de los nodos con el visualizador rviz y el nodo aibo server en
funcionamiento.
2
http://wiki.ros.org/rviz
http://wiki.ros.org/urdf
http://freecadweb.org/
5
http://www.netfabb.com/
3
4
89
Figura 6: Estructuras de los nodos de ROS con aibo server y el modelo visualizado con rviz.
Referencias
Figura 5: Modelo visto desde el framework de rviz.
5. Conclusiones y Trabajos Futuros
Como resultado del trabajo realizado, puede afirmarse que se ha alcanzado el objetivo de implementar
los paquetes aibo server y aibo description que permiten la sincronizaci´on de varios robots AIBO. Estos paquetes est´an disponibles para su uso o modificaci´on en
https://github.com/Diamg/AiboRosPackages, con objeto de
poder complementarlos y mejorar los resultados.
El m´odulo implementado permite adquirir los datos de los
sensores y articulaciones de AIBO de forma satisfactoria a
velocidades superiores a 10 Hz en forma de t´opicos de ROS.
Esta parte del m´odulo por si solo ya facilita enormemente
la programaci´on, el testeo y la depuraci´on con el uso de las
herramientas que facilita ROS. Adem´as, en esta l´ınea se ha
incluido un modelo para el visualizador rviz con un aspecto
visual y funcional complementando el m´odulo anterior.
Por otro lado, la parte implementada que se encarga de enviar las ordenes a AIBO permitiendo actuar sobre e´ l, no ha
dado unos resultados tan veloces como ser´ıa deseable y no
permite el env´ıo de trayectorias punto a punto con este m´etodo. De todos modos, URBI dispone de su propio generador
de trayectorias por lo que permite enviar funciones de movimiento m´as complejas o posiciones concretas enviadas a un
ritmo mas bajo del implementado.
Este proyecto deja un camino abierto a posibles mejoras y
complementos. Entre otros, la integraci´on del modulo de visi´on y audio usando URBI. Por otra parte, cabe la duda de si
el comportamiento de env´ıo ser´ıa mejor usando OPEN-R, lo
que implica eliminar una capa de programaci´on intermedia,
URBI, que posiblemente est´a ralentizando y empeorando la
comunicaci´on entre cliente y servidor. En cuanto al modelo y
el nodo que permite su integraci´on con rviz podr´ıa completarse a˜nadiendo otros sensores del AIBO como los aceler´ometros, los infrarrojos, los sensores de presi´on y contacto, permitiendo, entre otros, realizar proyectos de odometr´ıa.
[Arevalillo-Herr´aez et al., 2011] Miguel Arevalillo-Herr´aez,
Salvador Moreno-Picot, and Vicente Cavero Mill´an. Arquitectura para utilizar robots AIBO en la ense˜nanza de la
inteligencia artificial. IEEE-RITA, 6(1):1–9, 2011.
[Baillie, 2005] Jean-C. Baillie. URBI: Towards a universal
robotic low-level programming language. In Intelligent
Robots and Systems, 2005. (IROS 2005). 2005 IEEE/RSJ
International Conference on, pages 820–825, Aug 2005.
[Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor
Matsuda, and Jon Piazza. A friendly face in robotics:
Sony’s aibo entertainment robot as an educational tool.
Computers in Entertainment, 2(2):14, 2004.
[Kecsap, 2010] Kecsap.
Porting URBI 2.x for AIBO.
biburlhttp://kecsapblog.blogspot.com.es/2010/12/portingurbi-2x-for-aibo.html, 2010.
[Kert´esz, 2013] Csaba Kert´esz. Improvements in the native development environment for sony AIBO. IJIMAI,
2(3):50–54, 2013.
[Mart´ınez G´omez, 2006] Jes´us Mart´ınez G´omez. Dise˜no de
un teleoperador con detecci´on de colisiones para robots
AIBO. Master’s thesis, Universidad de Castilla-La Mancha, Spain, 2006.
´
[Montero-Mora et al., 2009] Angel
Montero-Mora, Gustavo
M´endez-Mu˜noz, and Jos´e-Ram´on Dom´ınguez-Rodr´ıguez.
Metodolog´ıas de dise˜no de comportamientos para AIBO
ERS7. Master’s thesis, Universidad Complutense de Madrid, Spain, 2009.
[Morales-Jim´enez, 2007] Jes´us Morales-Jim´enez. Localizaci´on de objetos y posicionamiento en el escenario deRoboCup Four-Legged con un robot AIBO. Master’s thesis,
Universidad de Castilla-La Mancha, Spain, 2007.
[Nardi and Lima, 2012] Daniele Nardi and Pedro Lima. RoboCup: the robot soccer world cup. In Pedro Lima and Rui
Cortesao, editors, Proceedings of the IROS-13 Workshop
on Robot Competitions: Benchmarking, Technology Transfer and Education. IEEE, 2012.
[P´erez et al., 2010] Xavier P´erez, Cecilio Angulo, Sergio Escalera, and Diego E. Pardo. Vision-based navigation and
reinforcement learning path finding for social robots. In
Jornadas ARCA 2010, June 2010.
[Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P.
Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: An open-source robot operating system. In ICRA Workshop on Open Source Software,
2009.
[T´ellez et al., 2006] Ricardo A. T´ellez, Cecilio Angulo, and
Diego E. Pardo. Evolving the walking behaviour of a 12
90
dof quadruped using a distributed neural architecture. In
AukeJan Ijspeert, Toshimitsu Masuzawa, and Shinji Kusumoto, editors, Biologically Inspired Approaches to Advanced Information Technology, volume 3853 of Lecture
Notes in Computer Science, pages 5–19. Springer Berlin
Heidelberg, 2006.
91
Ideas para la aplicación de la optimización por colonia de hormigas al desarrollo
sostenible y eficiencia energética
J. M. Marquez Vázquez1 , J. A. Ortega Ramírez2, L. González-Abril3 y F. Velasco Morente3
1
División de Aplicaciones de Negocio. Simosa IT. Abengoa. [email protected]
2
Dep. de Lenguajes y Sistemas Informáticos, Univ. de Sevilla, [email protected]
3
Dep. de Economía Aplicada, Univ. de Sevilla. {luisgon,velasco}@us.es
Abstract
El objetivo de este artículo es presentar un nuevo
contexto para la aplicación del algoritmo optimización por colonias de hormigas. Concretamente, el
contexto que se define este trabajo es el resultante
de la implantación de un sistema de medición continua de la concentración de partículas contaminantes en el aire en grandes ciudades, mediante la utilización de una red de sensores instalados en los autobuses de la red de transporte público. El algoritmo de optimización por colonias de hormigas se
utiliza para obtener el camino óptimo de ida y vuelta y con menor concentración de polen entre dos
puntos de la ciudad. El sistema descrito en este trabajo no está relacionado con ningún proyecto real y
su propósito es únicamente mostrar una de sus posibles aplicaciones desde un punto de vista teórico.
1
Introducción
Una de las peculiaridades del algoritmo presentado en la tesis “Cálculo de rutas en sistemas de e-learning
utilizando un algoritmo de optimización por colonias de
hormigas” [1] consiste en que el rol de hormiga es desempeñado por personas reales, a diferencia de lo que sucede en
el resto de algoritmos de optimización por colonia de hormigas [2], dónde son agentes software los que sin mediar
intervención humana, desempeñan este papel. En [1] a partir
del comportamiento de los alumnos y de su perfil el algoritmo calcula el itinerario de aprendizaje que, a priori, resultaría más beneficioso. En este trabajo aprovechamos la
misma para un propósito totalmente diferente: utilizar el
comportamiento de las personas para obtener información
acerca de la contaminación ambiental y procesarlos para
ofrecer mapas de contaminación de una ciudad.
Un antecedente de esta aplicación del uso de pequeños sensores implantados en autobuses urbanos para la monitorización de parámetros ambientales lo encontramos en el proyecto EkoBus, llevado a cabo en las ciudades de Belgrado y
Pancevo en Serbia con la colaboración de Ericsson y dentro
del marco de proyectos SmartSantander financiado por el
Banco Santander.
2
Contexto
Las cuestiones ambientales y las restricciones
energéticas son uno de los pilares fundamentales sobre los
que se apoya la idea de ciudad inteligente [3]. En una ciudad
inteligente, la captura de datos que ayude a la toma de medidas orientadas a la reducción de la contaminación (del
aire, acústica, etc.) es una de sus razones de ser.
Algunas iniciativas para la medición de la contaminación ya han sido reconocidas y premiadas a nivel mundial. Algunas son españolas, como el sensor SmartCitizen1,
un sensor construido sobre la placa Arduino2 y que permite
a cualquier ciudadano medir los niveles de contaminación y
de ruido en su entorno y, en presencia de una red wifi, compartir la información en tiempo real en la red.
Recientemente, han sido numerosos los proyectos
relacionados con la adquisición de datos medioambientales
en ciudades inteligentes [4][5][6][7][8], animados en gran
medida por la capacidad de placas de bajo coste y fácil programación como ya la mencionada Arduino, Raspberry Pi3
o los sensores Waspmote4.
La aplicación inmediata es la construcción de un
mapa de contaminación ambiental, utilizando la variable
tiempo para detectar patrones de contaminación periódicos
debidos a la actividad humana, como el tráfico o la actividad
industrial. El estudio de este mapa de contaminación facilitará la toma de decisiones encaminadas a la minimización de
la contaminación por la actividad humana, contribuyendo a
la construcción de una ciudad más saludable.
1
2
3
4
http://www.smartcitizen.me/
http://www.arduino.cc/
http://www.raspberrypi.org/
http://www.libelium.com/es/products/waspmote/
92
La solución que se describe en este trabajo está
pensada para ciudades de tamaño medio-grande que cuenten
con red de transporte urbano (autobuses o taxis) en superficie y zonas de que actúen como fuentes y sumideros de
tráfico en determinadas franjas horarias (campus universitarios, polígonos industriales, puerto, etc.).
Actualmente, en una ciudad como Sevilla, se utilizan siete cabinas de vigilancia de la calidad del aire como
las de la Figura 1 repartidas por la ciudad según la distribución de la Figura 2.
Tabla 1: Valor de referencia (100) para cada contaminante
Contaminante
Concentración en
µg/m3 asociada al
valor del índice 100
Observaciones
SO2
125
Valor medio en
24 horas
NO2
200
Valor medio en
1 hora
PM10
50
Valor medido
en 24 horas
CO
10000
Valor medido
en 8 horas
O3(3)
120
Valor medio en
8 horas
Tabla 2: Valores cualitativos para la calidad del aire
Figura 1: Cabina de vigilancia de la calidad del aire
situada en el Parque de los Príncipes (Sevilla).
Todas estas cabinas permiten obtener muestras de los siguientes contaminantes:
- Partículas en suspensión de tamaño inferior a 10
micras (PM10).
- Dióxido de azufre (SO2)
- Monóxido de Carbono (CO)
- Óxidos de Nitrógeno (NO y NO2)
- Ozono (O3)
Los valores cualitativos, entendibles por la población, para
el nivel de calidad del aire: Buena, Admisible, Mala y Muy
Mala, se deciden en función de un índice de referencia
(Tabla 2) regulado por el Real Decreto 102/2011 [9] (Tabla
1).
Valor
Calidad del aire
0-50
Buena
51-100
Admisible
101-150
Mala
>150
Muy mala
Como se puede observar en la Figura 3, el nivel de contaminantes detectado por una misma cabina de vigilancia varía
según la franja horaria, por lo que la calidad del aire también
puede variar en términos cualitativos.
93
El monóxido de carbono (CO) es un gas poco común en la
atmósfera natural. Se forma como consecuencia de combustiones incompletas, Se produce por la combustión deficiente
de sustancias como gas, gasolina, keroseno, carbón, petróleo, tabaco o madera. Las chimeneas, las calderas, los calentadores de agua o calefactores y los aparatos domésticos que
queman combustible, como las estufas de la cocina o los
calentadores a queroseno, también pueden producirlo si no
están funcionando bien. Los vehículos detenidos con el
motor encendido también lo despiden. Es altamente tóxico,
mucho más letal que el dióxido de carbono. Observando las
muestras tomadas de cualquier día en cualquier cabina de
vigilancia es fácil detectar los picos de emisión de este gas y
relacionarlo con la actividad humana: las mayores concentraciones se producen de 7:30h a 14:00h y en menor medida,
por la tarde de 16:00h a 20:00h.
Por tanto, el estudio de estas muestras y el análisis de causas
relacionadas con la actividad humana, puede ayudar a tomar
medidas sobre dicha actividad que repercutan en una mejora
de la calidad del aire y por consiguiente, un mapa de calidad
del aire más detallado permitirá ajustar estas medidas con
más precisión en cada zona de la ciudad.
Figura 2: Red de vigilancia ambiental de Sevilla. Ubicación de las cabinas de vigilancia de la calidad del aire.
Informes recientes [13], indican que el 95% de los españoles
respira aire contaminado, por encima de los niveles máximos recomendados por la Organización Mundial de la Salud
(OMS). La creación de mapas detallados por niveles de
contaminantes (concentración de partículas, por ejemplo)
permitiría realizar un seguimiento de la evolución de los
mismos por la zonas o aglomeraciones de la ciudad y comprobar con mayor exactitud si los ciudadanos están expuestos a niveles superiores a los establecidos por las diferentes
normativas regulatorias. Por ejemplo, permitiría comprobar
la evolución y dirección de una intrusión de polvo sahariano
o de una nube de cenizas proveniente de la erupción de un
volcán. Estos mapas podrían ser de gran utilidad tanto para
el desarrollo sostenible, en cuanto a la reducción de emisiones contaminantes, como para la salud de los ciudadanos
puesto que facilitarían el estudio comparativo con mapas de
enfermedades y la correlación con ciertos niveles de contaminación para la aparición de enfermedades el aparato respiratorio o incluso la incidencia en determinados tipos de
cáncer [14].
3
Figura 3: Variación de valores de contaminantes del aire
registrados en la cabina del Parque de los Príncipes5
desde las 0h a las 23:59h del (18/06/2014).
5
Informe diario de calidad del aire ambiente. Red de vigilancia
y control de calidad del aire de Andalucía. Consejería de Medio
Ambiente. Junta de Andalucía.
Descripción de la solución
La solución consiste en una red de sensores acoplados en el
techo de algunos autobuses de la red de transporte urbano, lo
que permite cubrir casi gran parte de la ciudad con un reducido número de sensores.
94
En aquellas zonas dónde las líneas de transporte urbano sean
escasas o inexistentes, se colocarían sensores fijos en el
mobiliario urbano, de forma que no fueran fácilmente accesibles para evitar que fueran robados o víctimas de actos
vandálicos.
Los sensores cuentan con sistema de posicionamiento que
permitirá asociar a cada muestra las coordenadas GPS dónde
fue tomada. Cada sensor recogerá una muestra periódicamente y la enviará por GPRS al servidor central, que la
almacenará y asociará al sector correspondiente de la ciudad
a partir de las coordenadas recibidas. En este sentido, la
ciudad debe ser dividida en sectores (una cuadrícula) y el
tamaño de cada sector, puede escogerse según la precisión
deseada. A menor tamaño de los sectores, mayor precisión
tendrá del mapa de contaminación resultante, pero será necesario tomar un mayor número de muestras. Utilizando la
misma división que la empleada en los mapas de la empresa
pública de Transportes de Sevilla (Figura 4), resulta una
sectorización de la ciudad compuesta por 90 sectores de
igual dimensión, lo que aportará una información más detallada que la actual división en 6 sectores (Figura 2).
nimiento de la solución optando por su instalación en autobuses.
El sensor elegido es el modelo Smart Enviroment de Libelium, dotado de panel solar para dotarle de autonomía. La
batería de 6600 mAh combinado con el modo de funcionamiento del sensor, que se mantiene en stand-by mientras no
tenga que obtener muestra, hace que la autonomía de cada
sensor sea suficiente para operar durante semanas de poca
luz (invierno). Cada sensor puede operar con las diferentes
redes6 de comunicación que proporcionan los operadores de
telefonía actuales y es capaz de obtener las coordenadas
GPS desde la que se toma la muestra.
Hay que tener en cuenta el coste de cada línea asociada a
cada sensor en los costes de operación, siendo recomendable
escoger la tarifa de datos más económica puesto que el propósito a que se destinarán no generará un gran tráfico de
datos.
La ubicación de los sensores tendría lugar en el techo de los
autobuses, como se realizó en el ya citado proyecto EkoBus.
La toma se realizará transcurrido un intervalo de tiempo
determinado y aprovechando siempre que el vehículo esté
parado, para que la velocidad de marcha no influya en el
valor obtenido de la muestra. Será necesario, transcurrido el
intervalo de tiempo que fija el mínimo tiempo entre dos
tomas, detectar la velocidad instantánea del vehículo para
comprobar que está parado. La velocidad puede ser calculada a partir de la información del GPS, a partir de la variación de la posición respecto al tiempo, del desplazamiento
Doppler de las frecuencias de transmisión de los satélites, o
bien combinando ambos métodos [11].
Una vez recogida la muestra y encapsulada en un mensaje
XML sería enviada vía HTTPS al servidor central encargado
de almacenarla en la base de datos para su posterior procesado.
En el servidor central, una función calculará el sector a partir de las coordenadas GPS recibidas con cada muestra, de
forma que cada muestra quede asociada a un sector de la
ciudad.
Figura 4: División de Sevilla en 90 sectores
Si observamos la división por sectores de la ciudad notamos
que, de los 90 sectores, 23 no cuentan con ninguna línea de
autobús, por lo que nunca recogerían muestra. También se
observa que esos sectores no cuentan núcleos de población,
por lo que tampoco son de interés puesto que se pretende
medir la calidad del aire en núcleos urbanos. Por tanto en
total, contamos con un área de muestreo compuesta por 67
sectores. Si colocásemos un sensor fijo en cada sector, necesitaríamos 67 sensores. Colocando un sensor en un autobús
de cada línea necesitaremos sólo 43 sensores, con lo que
reducimos los costes de implantación, operación y mante-
De esta forma una red de 43 sensores, podría mantener un
mapa de contaminación del aire actualizado casi en tiempo
rea con un coste de implantación, operación y mantenimiento realmente bajo para una ciudad como Sevilla.
4 Aplicaciones de la optimización por Colonia
de Hormigas
6
GSM/GPRS/3G/UMTS/WCDMA/HSPA
95
El algoritmo de optimización por colonia de hormigas (Ant
Colony Optimization, ACO) es una técnica probabilística
para solucionar problemas computacionales que pueden
reducirse a buscar los mejores caminos o rutas en grafos que
fue propuesto por Marco Dorigo en su tesis doctoral [2]. Se
basa en la imitación del comportamiento de las hormigas,
que van dejando un rastro de feromonas por los caminos que
van explorando que ayudan al resto de hormigas de la colonia a elegir, con mayor probabilidad, el camino con mayor
cantidad de feromonas. La evaporación progresiva del rastro
de feromonas depositado por cada hormiga junto con unas
deposiciones, condicionadas en cantidad en función del
éxito obtenido (haber encontrado comida o no por ese camino), de nuevas hormigas hacen que el camino con un
nivel de feromonas mayor acabe siendo el seguido por toda
la colonia.
Los algoritmos de optimización por colonias de hormigas
son aplicados en muchos problemas combinatorios. Muchos
métodos derivados han sido adaptados a problemas dinámicos en variables reales, problemas estocásticos, programación paralela y multi-objetivo. Incluso han sido usados para
producir soluciones bastante cercanas a las soluciones óptimas del problema del viajante. ACO tiene una ventaja clara
sobre otro enfoques como el recocido simulado (simulated
annealing) y los algoritmos genéticos en problemas similares cuando el grafo puede cambiar su estructura de manera
dinámica: el algoritmo de colonia de hormigas puede seguir
corriendo continuamente y adaptar los cambios en tiempo
real. Esto es de interés en los campos de enrutamiento de
redes y en los sistemas de transportes urbanos, como en este
caso, dónde una avería o accidente puede ocasionar un corte
o el cambio de sentido de una calle.
-
Después de cada iteración, se evaporan las feromonas de acuerdo a una tasa de evaporación predefinida.
Camino con menor concentración de partículas
Una posible aplicación en de ACO a la solución descrita
anteriormente para monitorización de la calidad del aire,
consistiría en averiguar el camino de menor concentración
de partículas en el aire entre dos sectores diferentes de la
ciudad. Por ejemplo, sería de utilidad para aquellos peatones
que sufren de alergia a determinados tipos de polen, que
podrían elegir el camino de ida y vuelta con menor concentración de partículas, que normalmente será el de menor
concentración de polen.
El polen de las gramíneas y en es especial el polen del olivo
es particularmente en el sur de España, uno de los aeroalergenos más importantes, siendo la principal causa de polinosis que llega a afectar en la provincia de Jaén hasta al 84%
de la población7.
Los primeros registros polínicos comienzan a detectarse
durante el mes de marzo, alcanzándose las concentraciones
más elevadas en la primera y segunda semana de mayo
normalmente. Hasta bien entrado el mes de junio se mantienen valores importantes de polen de olivo en el aire que
oscilan entre los 250 g/m3 en Almería y los 1800 g/ m3 de
Jaén.
El primer algoritmo de colonia de hormigas, llamado Ant
System, tenía como objetivo resolver el problema del viajante, que consiste en encontrar el camino hamiltoniano más
corto en un grafo completo. El algoritmo está basado en un
conjunto de hormigas, cada una haciendo una posible ruta
entre las ciudades teniendo en cuenta las siguientes reglas:
-
Debe visitar cada nodo sólo una vez;
-
Una ciudad distante tiene menor posibilidad de ser
elegida (Visibilidad);
-
Cuanto más intenso es el rastro de feromonas de
una arista entre dos ciudades, mayor es la probabilidad de que esa arista sea elegida;
-
Después de haber completado su recorrido, las feromonas depositadas por cada hormiga en todas las
aristas, es inversamente proporcional a la distancia
total de camino;
Figura 5: Niveles (cualitativos) de polen de gramíneas y
olivo a mediados de mayo
En cambio dentro de las ciudades las concentraciones de
pólenes puede variar en función de la mayor o menor proximidad a zonas de cultivos o de la protección que puedan
ofrecer la disposición de los edificios y para esto sería de
interés contar con un mapa de contaminación detallado por
7
Según datos de la Red de Aerobiología de Andalucía, obtenidos
por la Estación de Control Aerobiológico de Granada.
http://www.ugr.es/~aerobio/olivo.htm
96
sectores sobre el que poder aplicar ACO para seleccionar el
camino de menor concentración de polen para un peatón
alérgico (no sería posible elegir el tipo de polen).
En este caso, los nodos representarían sectores de la ciudad.
Dos sectores estarán conectados por tantos caminos como
existan en el callejero que lo comuniquen, siendo la distancia de cada camino la distancia a recorrer por él. Este dato
puede obtenerse de sistemas de información geográficas o
callejeros como Google Maps8 que ofrecen un API9 para el
desarrollo e integración de aplicaciones de terceros.
entre 100 y 200 metros, tal y como se puede observar en la
gráfica de la
Distancia final
250
200
150
100
50
El valor de concentración de partículas para cada sector
sería el valor medio de todas las muestras tomadas en el
mismo sector durante la última hora.
Pensemos en la solución para el polen del olivo, cuyo tamaño oscila entre las 18 y las 31 micras.
La distancia a considerar entre dos nodos será también un
factor de la contaminación, de forma que se prime en cierta
medida aquellos caminos con mejor calidad del aire.
() = − ()
(1)
En la ecuación anterior () representa la distancia que
el modelo para el sistema ACO asignará al camino entre el
origen x y el destino y a través del itinerario z y que será
función, como veremos tanto de la distancia real entre x e y,
dxy(z), como de la medida de contaminación, en este caso de
partículas (polen), existente en el sector destino, que vendrá
dado por la función Ky que se calcula según la ecuación (2).
La constante k, es la constante o asíntota con la que queremos penalizar el recorrido en caso de una mala calidad del
aire y debe ser siempre k > 1. Por ejemplo, un valor k=2
hará que para valores infinitos de contaminación la distancia
final en el modelo se duplique con respecto a la original.
1
= < 50
≥ 50
(2)
La ecuación (2) hace que se mantenga la distancia cuando el
valor medio de concentración de partículas mayores de 10
micras, coincide o es inferior al valor límite de referencia,
esto es, cuando cy ≤ 50 g/m3. Para concentraciones admisibles, malas o muy malas (cy ≥ 50 g/m3 ) la distancia final en
el modelo se verá incrementada.
0
0
250 500 750 1000 1250 1500 1750 2000
Figura 6: Variación de d'xy(z) para k=2 y dxy(z)=100
según valor de cy
A partir de esta función de distancia y aplicando el algoritmo ACO deseado, por ejemplo el algoritmo Ant System
original de Marco Dorigo [12], podemos obtener una aproximación bastante buena al camino óptimo entendiendo
como óptimo al camino más corto y con una menor concentracón de polen.
La función de distancia en este trabajo definida (1) es bastante básica. Podría utilizarse una función más real, que
modele la cantidad de polen inhalado en función de los
metros recorridos de camino y que sería lo que interesaría
optimizar, pero creemos que como punto de partida, la función distancia definida puede ofrecer buenos resultados.
5 Inconvenientes para la aplicación
Entre los inconvenientes para la aplicación de las características del descrito en este trabajo podemos citar:
El primer inconveniente lo constituye el marco legal. El
propio Real Decreto 102/2011, de 28 de enero, relativo a la
mejora de la calidad del aire, indica en el artículo 6 el Capítulo II, de evaluación de la calidad del aire lo siguiente:
3. La evaluación de la calidad del aire ambiente se realizará, dependiendo del nivel de los contaminantes con respecto
a los umbrales a los que se refiere el anexo II, utilizando
mediciones fijas, técnicas de modelización, campañas de
mediciones representativas, mediciones indicativas o investigaciones, o una combinación de todos o algunos de estos
métodos.
La distancia final () para la arista del grafo en nuestro
modelo que una los puntos x e y a través del itinerario z del
callejero, suponiendo que la longitud real de z es de 100
metros, variará según el valor de contaminación cy con k=2
El punto 3 del artículo 6 hace referencia a mediciones fijas,
pero no a puntos de medición móviles. No obstante podrían
interpretarse nuestro caso como un caso especial de campaña de medición representativa, pero no queda claro.
8
El siguiente punto del artículo 6 sí que indica claramente
que será obligatorio en aquellos puntos en los que se pueda
9
http://maps.google.com
https://developers.google.com/maps/?hl=es
97
superar el límite de referencia efectuar mediciones en lugares fijos:
4. Será obligatorio efectuar mediciones de la calidad del
aire en lugares fijos en las zonas y aglomeraciones donde
los niveles superen los umbrales superiores de evaluación
establecidos en el anexo II. Dichas mediciones fijas podrán
complementarse con modelización o mediciones indicativas
para obtener información adecuada sobre la distribución
espacial de la calidad del aire ambiente.
En este caso las mediciones fijas serían las efectuadas por
las cabinas fijas ya existentes, pero ¿pueden considerarse las
medidas efectuadas por los sensores instalados en los autobuses mediciones indicativas? Creemos que sí, pero no está
del todo claro.
Otro inconveniente en sí es la necesidad de contar con el
apoyo de la administración pública para llevar este proyecto
a una experimentación real.
6 Conclusiones y trabajo futuro
En el presente trabajo se describe como desplegar una red de
sensores móviles que faciliten la captura de datos para la
evaluación de la calidad del aire de cara a la construcción de
un mapa detallado de la calidad del aire en una ciudad, lo
que facilitará la toma de decisiones para actuar sobre aquellos elementos de la actividad humana que influyen en un
empeoramiento de la calidad del aire: tráfico, emisiones de
la industria, control de residuos, etc. Por consiguiente, contribuirá a un desarrollo más sostenible y podrá facilitar el
ahorro energético (control del tráfico, de las emisiones de
CO2 de la industria, etc).
Además se introduce la aplicación del algoritmo de optimización por colonias de hormigas para, a partir del modelo
construido con los datos obtenidos por la red de sensores
descrita, obtener caminos óptimos en los que se optimicen la
distancia recorrida entre dos puntos con la mejor calidad de
aire posible, persiguiendo en este trabajo en particular, el
camino con menor concentración de polen del olivo (partículas mayores de 10 micras).
Este trabajo es una reflexión teórica sobre las posibilidades
de aplicación de ACO en el contexto descrito, quedando
como trabajo futuro la construcción del sistema y el modelo
descrito y realización de un piloto con un conjunto reducido
de sensores y vehículos particulares.
7
Referencias
[1] Márquez, J. M. (2012). Cálculo de rutas en sistemas de
e-learning utilizando un algoritmo de optimización
por colonias de hormigas.
[2] Dorigo, M. (1992). Optimization, Learning and Natural
Algorithms, PhD thesis, Politecnico di Milano, Italia, 1992.
[3] Lyon, Smart City: métropole intelligente et durable.
http://www.economie.grandlyon.com/smart-citylyon-france.346.0.html
[4] Contribución al diseño, definición e implementación de
una plataforma de investigación para la Internet del
futuro, basada en un despliegue masivo de redes de
sensores inalámbricos heterogéneos, en el marco de
la Ciudad Inteligente. Tesis Doctoral. J. A. Galache
López. Septiembre de 2013. Universidad de Cantabria. Departamento de Ingeniería Telemática. Accesible online:
http://repositorio.unican.es/xmlui/bitstream/handle/
10902/4422/Tesis%20JAGL.pdf?sequence=1
[5] Miranda Pérez, S. (2014) Desarrollo de una red telemática para la adquisición de datos medioambientales
mediante red de sensores en el municipio de Molins
de Rei. Proyecto Fin de Carrera. Integración de Redes Telemáticas. Universidad Oberta de Cataluña.
Febrero de 2014. Accesible online:
http://openaccess.uoc.edu/webapps/o2/bitstream/10
609/27925/6/smirandapeTFC0114memoria.pdf
[6] Proyecto Rescátame. Red Extensa de Sensores de Calidad del Aire para una Administración del Tráfico
urbano Amigable con el Medio ambientE. Proyecto
LIFE de la UE. http://www.rescatame.eu/
[7] Gómez Pulido, J. A. et al. (2012) Experiencias con redes
de sensores inalámbricos en la Escuela Politécnica
de la Universidad de Extremadura. Jornadas de la
Sociedad de Arquitectura y Tecnología de Computadores (SARTECO) 2012. Universidad Miguel
Hernández. Elche, 19-21 de Septiembre de 2012.
Disponible online:
http://www.jornadassarteco.org/js2012/papers/paper
_8.pdf
[8] Smart City project in Serbia for environmental monitoring by public transportation.
http://www.libelium.com/smart_city_environmental
_parameters_public_transportation_waspmote
[9] Real Decreto 102/2011, de 28 de enero, relativo a la
mejora de la calidad del aire. Boletín Oficial del Estado. Núm 25, 29 de enero de 2011.
98
http://www.boe.es/boe/dias/2011/01/29/pdfs/BOEA-2011-1645.pdf
[10] Proyecto EkoBus.
https://mobiledevelopmentintelligence.com/product
s/3138-ekobus-project
[11] Molina Cantero, F. J. GPS. Departamento de Tecnología Electrónica. Universidad de Sevilla.
http://www.dte.us.es/ing_inf/sac/material/GPS.pdf
[12] Dorigo, M. et al. (1996). Ant System: Optimization by
a colony of cooperating agents. IEEE Transactions
on sistems, man and cybernetics. Part B: cybernetics. Vol. 26. No 1. Febrero 1996.
[13] Ecologistas en Acción (2014). La calidad del aire en el
estado español durante 2013.
http://www.ecologistasenaccion.org/IMG/pdf/infor
me_calidad_aire_2013.pdf
[14] López-Abente et al. (2014). Time trends in municipal
distributions patterns of cancer mortality in Spain.
BMC Cancer 2014, 14:535. doi: 10.1186/14712407-14-535.
99
Creativity Support System for cake design
Francisco J. Ruiz1, Cristóbal Raya1, Albert Samà1 and Núria Agell2
1
Automatic Control Department, BarcelonaTech. Vilanova i la Geltrú, Spain
2
ESADE Business School- Ramon Llull University, Sant Cugat, Spain
Abstract
In this paper, a new formulation of Creativity is
presented in the context of Creativity Support
Systems. This formulation is based on the central
ideas of the theory of Boden. It redefines some
concepts such as appropriateness and relevance
in order to allow the implementation of a support
system for creative people. The approach is
based on the conceptual space proposed by
Boden and formalized by other authors. The presented formulation is applied to a real case in
which a new chocolate cake with fruit is design.
Data collected from a Spanish chocolate chef has
been used to validate the proposed system. Experimental results show that the formulation presented is not only useful for understanding how
the creative mechanisms of design works, but also facilitates its implementation in real cases to
support creativity processes.
1. Introduction
Creativity Support Systems (CSS) can be defined as systems
capable of enhancing human creativity without necessarily
being creative themselves. They can act as a creative collaborator with scientists, designers, artists and engineers.
CSS consists of applying technology to assist humans in
thinking outside the box and expanding their exploration
boundaries generating ideas that have never been imagined
before [1].
Creativity can be found in almost all human activities, not
only in artistic activities such as paintings, sculpture, music,
literature or architecture, but also in engineering, software
development, scientific discoveries and others. Creativity is
assumed to be closely related to the rational decisionmaking process. In the literature, decision-making processes
are normally considered to be composed by four steps:
Framing the decision, generating alternatives, evaluating
the alternatives and choosing and implementing the chosen
alternative. Creativity is mainly associated to the second
step: generation of alternatives. Alternatives are normally
generated by reviewing processes that were used in the past
or were used in different frameworks with subtly common
aspects. The skills of creative people are on the one hand to
find these apparently different frameworks with common
characteristics and, on the other hand, to evaluate the alternatives taking into account the relation between frameworks.
CSS has a potential role in the food industry. Today, a
significant portion of a food services or manufacturers’
business is focused on generating new ingredient combinations and finding new flavors that will be a commercial
success. This research will allow chefs and other food professionals to be more creative and to shorten the time to
bring a new flavor to market by helping them in the development process.
In this paper, a new formulation of the central ideas of the
well-established theory of Boden about creativity is presented. This new formulation redefines some terms and also
reviews the formal mechanisms of exploratory and transformational creativity based on a conceptual space proposed
by Boden and formalized by others authors in a way that
facilitates the implementation of these mechanisms. To
illustrate this formulation, a computational system is developed and tested in the support process of a creative chocolate designer. The study has been conducted jointly with the
chocolate
chef
Oriol
Balaguer
team
(http://www.oriolbalaguer.com). Oriol Balaguer is one of
the Spanish most awarded pastry chef who is actively involved in the research and development of new products.
The remaining of the paper is organized as follows: first,
a literature review on computational creativity is conducted.
In the third section, the proposed CSS methodology is presented. A real case example where the methodology proposed is applied is given in section four and, finally, in the
last section conclusions and future work are discussed.
2. Computational creativity: State of the
art
Creativity should be regarded as one of the highest-level
cognitive functions of the human mind. It is a phenomenon
whereby something new and valuable is produced such as
100
an idea, a problem solution, a marketing strategy, a literary
work, a painting, a musical composition or a new cookery
recipe. Authors have diverged in the precise definition of
creativity beyond these two features: originality (new) and
appropriateness (valuable).
One of the few attempts to address the problem of creative behavior and its relation with Artificial Intelligence was
done by Margaret Boden [3][4]. She aimed to study creativity processes from a philosophical viewpoint focusing on
understanding human creativity rather than trying to create a
creative machine.
Boden distinguishes between creativity that is novel
merely to the agent that produces it and creativity that is
recognized as novel by the society. The first is usually
known as P-creativity (or “psychological creativity”) and
the second is known as H-creativity (or “historical creativity”).
The most important contribution of Boden study is the introduction of the idea of conceptual space composed by
partial or complete concepts. She conceives the process of
creativity as the location and identification of a concept in
this conceptual space. The creative process can be performed by exploring or transforming this conceptual space.
If the conceptual space is defined through a set of rules,
whenever these rules are satisfied, the creative process can
be thought as finding new and satisfactory elements of this
space. This is the kind of creativity which Boden calls exploratory creativity. If the rules defining the conceptual
space can be changed, then the process is called transformational creativity.
However, from Boden’s study, it is not clear how the
rules give rise to a particular conceptual space and, therefore, what is the true difference between exploring the space
and transforming it. In order to clarify and to formalize the
creative process, G. A. Wigging [5] presented several papers
in which emphasized the notion of search as the central
mechanism for exploratory creativity and the notion of meta-level search related to transformational creativity. Wiggings proposes to define a universe of possibilities U which
is a superset of the conceptual space. The universe is a multidimensional space, whose dimensions are capable of representing all possible concepts which are relevant to the
domain in which we wish to be creative. For transformational creativity to be meaningful, all conceptual spaces are
required to be subsets of U.
Wiggings conceives exploratory creativity as a search of
concepts in a specific conceptual space. The process involves three set of rules that can be denoted as acceptability,
appropriateness and strategy. The first set of rules is associated to the conceptual space membership. Moreover, acceptability is related to the style. On the other hand, appropriateness rules are related to the value of the concept. Valuable concepts may become successful regardless of being
acceptable according to the rules associated to the acceptability. This second set of rules that defines the value of a
concept is much difficult to define because it depends on
cultural and aesthetic aspects, specific context, personal
mood, etc. It is important to remark that, in this context,
appropriate means suitable to the task, but above all original
and surprising. Finally, there exist a third set of rules associated to the search strategy. For instance, some people prefer
to work “top-down”, others “bottom-up”, others rely on adhoc methodologies, using informed or uninformed heuristics
and even at random. Wiggings points out that by separating
acceptability and strategy rules, situations where different
designers, each with a personal way of finding new ideas,
are working within the same style can be described (a
shared notion of acceptability).
From Wiggins perspective, the interaction of these three
sets of rules (acceptability, appropriateness and strategy)
leads to the exploratory creativity process. However, although working within three invariant sets of rules may
produce interesting results, a higher form of creativity can
result from making changes of these rules (transformational
creativity). In other words, on the one hand, exploratory
creativity consists of finding a concept in a specific conceptual space, following a specific strategy and assessing it
using a specific appropriateness set of rules. On the other
hand, transformational creativity consists of the same process than exploratory creativity but changing the conceptual
space, the search strategy or the appropriateness assessment.
Besides Wiggings work, there have been other formalizations of specific aspects of the computational creative process [6][7][8]. Although these formalizations are very helpful in clarifying the nature of creative computation and have
enabled some applications in diverse domains including
graphic design, creative language, video game design and
visual arts [9], the details of most of them are unspecified
and the concepts they include are not easy to implement.
The current paper starts from the central ideas of Boden and
Wiggings and redefines the formal mechanisms of exploratory and transformational creativity in a way which facilitates the implementation of these mechanisms.
3. The proposed CSS
As in Wiggins theory, let’s start by considering a universal
set of all concepts, U. The idea is that U is universal enough
to contain concepts for every type of artifacts that might
ever be conceived. In addition, we define a framework F, as
the object F={C, a(), r()} where C⊂ U is the H-conceptual
space (or “historical conceptual space”) formed by all concepts related to the framework F, and a() and r() are maps
from U to R. a() is the appropriateness and r() is the relevance. The first map is related to the success of considering
this concept while the second one is an objective measure of
the relation of the concept with the framework. The relevance is the result of the experts’ activities. A naïve relevance measure might be a 0/1 value (1 if x∈C and 0 otherwise) but it is possible to consider more complex measures
containing more information about the relation between the
101
concept and the framework. The underlying idea is that,
although evaluating the appropriateness requires some kind
of talent or expertise, relevance evaluation can be performed
by means of an objective analysis of other problems in the
framework. Thus a concept with high relevance in a framework does not necessarily have high appropriateness. In
fact, an original concept always has low relevance in the
considered framework.
In the proposed CSS, it is assumed that an expert i on a
given framework Fo ={C0, a0(), r0()} knows value ao(x) for
some subset Ci0 of C0, but values ao(y) for those concepts
y∉Ci0 are unknown by the expert. Following Boden, we call
Ci0 the psychological or P-conceptual space, that is, the
concept space associated to the framework Fo and to the
expert i. At the same time, the expert does not necessarily
know ai(x) for another framework Fi. Thus, it is considered
that expertise of the expert is only guaranteed in a single
framework.
In this model, we consider that function a() depends on
the framework but not on the expert. The difference between experts of the same framework is related to the different P-conceptual spaces, all them subsets of the Hconceptual space. In addition, the activity of an expert is not
only to evaluate concepts but specially selecting them following some selection strategy. Once a new concept is selected and applied by the expert, if this does not belong to
the P-conceptual space, the expert can obtain the value of
a() and hence, the P-conceptual space and/or the Hconceptual space is extended to include this new concept.
Let us consider a set of different frameworks F1, F2,…,
Fm. If x∈ U is a concept, we can consider the relevance
vector of x respect to the set of frameworks F1, F2,…, Fm as
Φ(x)=(r1(x), r2(x),…, rm(x)). This vector describes the membership relation of x to the set of frameworks F1, F2,…, Fm .
If x∉Ci, then ri(x)=0. Following Boden notation, if the expert only explores the conceptual space Ci0, the task is just
exploratory creativity. If the expert explores beyond Ci0 by
extending it, transformational creativity is then performed.
The utility of CSS relies on proposing new concepts y∈ U,
y∉Ci0 to the expert from the relevance information of these
concepts with respect to frameworks different to the one
initially considered and from the relation among all these
frameworks.
The system that we consider is able to propose new
concepts y∈ U, y∉ Ci0 with likely high a0(y). In order to
predict how valuable a new concept y is, i.e a0(y), our hypothesis is that no obvious relations between different
frameworks exist, therefore the appropriateness a0(y) and
the relevance vector Φ(y) are closely related. In this sense, it
is considered that concepts with similar relevance vectors on
the current framework should have similar appropriateness
function. This hypothesis could not be true for a small set of
frameworks but seems to be true for larger ones.
Given the relation between appropriateness and relevance, our CSS will use the set Ci0, or a subset of it, as a
training set in a learning system in order to extract the relation between appropriateness in F0 and the relevance vector
in a set of frameworks F1, F2,…, Fm. Once trained, we only
have to feed the CSS with other concepts and the system
will propose those concepts with expected high appropriateness.
We propose in this study an illustrative example to validate our formulation and hypothesis. The example will
highlight the relation between the appropriateness in a given
framework with the relevance of the concept respect other
apparently distinct frameworks.
4. Experimental framework: designing a
new chocolate cake with fruits
To illustrate the implementation of the ideas presented in the
previous section, let us consider the following creative problem: creating a new chocolate cake by combining dark
chocolate with a fruit to obtain a highly accepted product.
The expert that has to create the new chocolate cake has a
large experience in combining chocolate with many different ingredients –cheese, liqueurs, olive oil, nuts and, of
course, fruits. Due to his experience, he knows whether
several combinations of specific types of chocolates and
fruits are suitable or not but, of course, he does not know
how well chocolate combines with all existing fruits. Thus,
a CSS is going to be developed according to the methodology presented in the previous section in order to assist the
expert in creating suitable new combination.
In our case, since we constrained the problem to combine fruit and dark chocolate, the universe U is formed by all
fruits. The P-conceptual space Ci0, which consists in all
fruits that the expert knows whether they blends in well or
not with dark chocolate, is just a subset of U. Moreover, the
expert is able to assign a value a0 (x) for all x∈ Ci0, which is
represented as a qualitative value (very bad, bad,…, good
and very good). The objective of our CSS consists in suggesting other fruits y∈ U, y∉ Ci0, with a high predicted value function a0 (y), i.e. they are valuable to the expert.
Following the proposed CSS methodology, we can
learn the value a() of a fruit respect to the dark chocolate
(framework F0) through the way it is related to other
frameworks. In this example we are considering only
frameworks related with recipes and ingredients, but other
alternatives could also be considered. For obtaining the
relevance value with respect to a framework we have made
use of a large recipe databases and we counted the number
of recipes containing both the fruit and the term associated
to the framework.
Although the combination of fruits and dark chocolate
could have nothing to do with the combination of fruits and
rice, for instance, according to our assumption, given a fruit
that has high value of a0 and has similar relevance vector
102
than another unknown fruit, this unknown fruit could be
considered as a good option for extending the search.
4.1 Data collection
In order to validate our method, we used the data provided by the chocolate chef Oriol Balaguer who assessed,
according to his expertise, the combinations of 28 different
fruits respect to their suitability to combine with dark chocolate [10]. In addition we have considered 14 frameworks
aside from the main framework (dark chocolate). All considered frameworks consisted in ingredients used in cooking, but not necessarily in pastry making. In this implementation of the CSS, we are not focusing on the frameworks
selection problem. Instead, we think that the ad-hoc selection for this example is enough for illustrating how the formulation presented can be implemented and we leave
framework selection as a near future work.
In order to obtain the relevance vector for each fruit we
used the online database of recipes www.allrecipes.com.
Table 1 depicts the list of the 28 fruits and 14 frameworks.
The last column of this table shows the qualitative assessment provided by the expert following the labels in table 2.
Values of table 1 are obtained by searching both terms simultaneously (fruit and framework). This value represents the
number of recipes of the database containing both terms.
We can think that this list of 28 fruits constitutes the
conceptual space and the CSS can learn the relation between
the relevance vector of these fruits with respect to the 14
frameworks and the assessment provided by the expert.
Once this relation is captured the CSS can obtain the relevance vector of other fruits respect to this set of frameworks. It calculates the predicted value a0 for these new
fruits and proposed those which have high predicted a0.
Table 2. Labels and linguistic meaning in the fruit assessment by the
expert.
Labels
1
2
3
4
5
Linguistic labels
It does not combine at all
It does not combine well
Combines well
Combines very well
It is an excellent combination
4.2 CSS training and results
Our proposal is based on the existing relation between
the appropriateness of a concept with respect to a framework and the relevance vector of this concept with respect
to a set of other frameworks. To validate this, we used data
from Table 1 for obtaining this relation and assessing its
significance. This validation is performed twice by using, on
the one hand, the complete range of expert’s valuation
shown in Table 2 and, on the other hand, using just a binary
valuation (suitable or not suitable) that simplifies expert’s
assessment. We used a multiclass and a two-class support
vector machines (SVM) and we validated it by means of a
leave one out cross-validation process. If the SVM can correctly estimate the appropriateness of a fruit from the relevance vector, it can be used to propose new fruits with high
predicted appropriateness.
Table 1. List of the some fruits assessed by the expert (last column) and the
list of some frameworks considered in this example.
rice chicken vinegar sugar pie caramel bread app
331 494
606
2265 586 152
525 1
Apple
1
18 29
49
185 38 17
38
Pear
2
0 0
0
7
0 0
0
Quince
4
53 80
51
250 30 6
51
Apricot
3
26 44
49
374 150 3
53
Peach
5
55 119
91
142 18 2
89
Plum
4
0
4
0 0
0
Boysenberry 0 0
4
15
156 72 5
10
Blackberry 4 6
95
794 219 8
116 4
Strawberry 25 38
5
0 0
0
0
0 0
0
Bilberry
Parameters of the SVM were tuned by optimizing the
geometric mean of sensitivity and specificity because data
are imbalanced. In the first case, we employed a multiclass
SVM (5 classes) with a Gaussian kernel. The best parameters obtained were C=1000 (regularization cost) and γ=
10000 (Gaussian kernel parameter). Software R and
LibSVM library were used to train the datasets and predict
accuracy of classifying. The total accuracy obtained is
42.86%. This value means that 42.86% of the times, the
predicted value match to the expert assessment. Taking into
account that there are 5 classes and the expected accuracy in
the case of random values is 100/5=20%, the accuracy value
obtained reaffirms our hypothesis. In the second case, pattern labels are changed in order to maximize CSS utility.
Instead of labels showed in Table 1, a binary classification
is employed in which the first class contains those combinations that are suitable to the expert and the second class
those which are not. Patterns corresponding to values 3 and
less are considered to the first class and the rest of patterns
are considered to belong to the second class. In this case, the
best parameters obtained by the tuning process were
C=100000 and γ= 0.1. The total accuracy obtained is 85%.
Conclusion and Future work
In this paper we proposed a new formalization of the mechanism of creativity based on the Boden notions of conceptual space and transformational creativity through a search
beyond the boundaries of this conceptual space. This study
redefines the formal mechanisms of exploratory and transformational creativity introducing the concepts of framework and relevance of a concept with respect to a framework. The formalization presented has been implemented in
a real example conducted with a Spanish chocolate chef.
103
The obtained CSS was able to propose new unknown fruits
that are predicted to combine well with dark chocolate. The
validation of the method has been performed using a SVM.
The obtained results allow us to conclude that the assumptions on which the method is based are satisfied in this example.
It is important to remark that in this implementation we are
not focusing on the frameworks selection problem. This is
an important point to study in future work. Also, including
both complete and incomplete concepts to the formalization
presented will be an interesting topic for research.
Acknowledgments
This work is supported by the Spanish project SENSORIAL
(TIN2010-20966-C02-02) Spanish Ministry of Education
and Science.
References
[1] C.J. Thornton, How thinking inside the box can become thinking
outside the box. In Proceedings of the 4th international Joint Workshop on Computational Creativity, (2007).
[2] B. Shneiderman, Creating Creativity: User Interfaces for Supporting
Innovation, ACM Transactions on Computer-Human Interaction 7,1
(2000), 114-138.
[3] M.A. Boden, The Creative Mind: Myths and Mechanism. Weidenfiel
and Nicholson, London, (1990).
[4] M.A. Boden, What is creativity? In M.A.Boden, editor, Dimensions of
Creativity. MIT Press (1996), 75-118.
[5] G. Wiggins, A preliminary framework for description, analysis and
comparison of creative systems. Knowledge-Based Systems 19
(2006), 449-458.
[6] G. Ritchie, Some empirical criteria for attributing creativity to a computer program. Minds and Machines 17 (1) (2007), 67-69 (2007).
[7] G. Ritchie, A closer look at creativity as search, In Proccedings of the
3rd International Conference on Computational Creativity (2012).
[8] J. Charnley, A. Pease and S. Colton. On the Notion of Framing in
Computational Creativity, In Proccedings of the 3rd International
Conference on Computational Creativity (2012).
[9] R. Manurung, G. Ritchie and H. Thompson. Using a genetic algorithms
to create meaningful poetic text. Journal of Experimental & Theoretical Artificial Intelligence 24(1), (2012), 43-64.
[10] N. Agell, G. Sánchez, M. Sánchez, F. Ruiz, Group decision-making
system based on a qualitative location function. An application to
chocolates design, In Proccedings of the 27th International Workshop
on Qualitative Reasoning (2013).
XVI Jornadas de ARCA
104
105
Equilibrio del Robot AIBO usando DMPs∗
Llu´ıs Salord, Cecilio Angulo, Manel Velasco
Universitat Polit`ecnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Autom`atica, Barcelona, Spain 08028
[email protected], {cecilio.angulo, manel.velasco}@upc.edu
Abstract
El trabajo presentado se enmarca en una iniciativa
global que tiene como objeto la recuperaci´on de la
plataforma rob´otica AIBO de Sony. Para demostrar
las prestaciones de la arquitectura propuesta y la
viabilidad del robot AIBO como plataforma rob´otica u´ til, se han escogido algoritmos de aprendizaje por refuerzo muy novedosos como implementaci´on en la tarea de mantener el equilibrio ante movimientos indeseados en la base de apoyo del robot.
El robot AIBO puede ser controlado de forma permanente con un tiempo de respuesta adecuado para
la tarea.
1.
Introducci´on
Este trabajo forma parte de una iniciativa por fomentar la
reutilizaci´on del robot AIBO de Sony. En esta direcci´on, la
implementaci´on de la tarea de mantener el equilibrio por parte de un robot cuadr´upedo, como es el caso del robot AIBO,
ser´ıa factible a trav´es de un gran n´umero de algoritmos diferentes. Sin embargo, con objeto de demostrar la viabilidad
del uso de robots AIBO en la rob´otica m´ovil actual, pese a la
discontinuidad en su fabricaci´on y servicio, se han escogido
algoritmos, medios de comunicaci´on y marcos de programaci´on novedosos y del todo actuales.
As´ı, en los centros de investigaci´on rob´otica de mayor nivel, como es el caso de Boston Dynamics, se est´a trabajando
de un tiempo a esta parte con algoritmos DMPs (Dynamic
Movement Primitives) [Schaal, 2006] como forma de creaci´on de trayectorias en los robots m´oviles cuadr´upedos m´as
avanzados [Raibert, 2008]. Se trata de algoritmos tales que,
dada una demostraci´on inicial de la din´amica aproximada del
movimiento a realizar, adaptan la trayectoria original a la situaci´on actual, generalmente cambiante, ya sea debido a una
modificaci´on en el punto inicial de movimiento, en el objetivo de movimiento o en obst´aculos en el recorrido del movimiento. Una de las grandes ventajas en el uso de DMPs es la
posibilidad de realizar el control de un robot sin tener informaci´on del modelo mec´anico que lo representa.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigaci´on PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Econom´ıa
y Competitividad del Gobierno de Espa˜na.
Adem´as, se ha decidido utilizar el entorno de trabajo de
ROS (Robotic Operative System), que permite la creaci´on de
un enlace de comunicaci´on entre el ordenador y el robot AIBO1 . Se trata de un entorno de programaci´on open source
que se ha convertido en un est´andar de facto en el mundo
de la rob´otica m´ovil y se abre camino en los dominios de la
rob´otica industrial.
Al robot AIBO se le ha dotado de un sensor triaxial de accelerometr´ıa, as´ı como un giroscopio de tres ejes, con el objetivo de disponer de informaci´on del movimiento en el centro de gravedad del robot, el cual deseamos mantener estable.
Con ayuda de las DMPs, junto con el algoritmo de aprendizaje por refuerzo PI2 (Path Integral Policy Improvement)
[Buchli et al., 2011] se analizar´a la informaci´on recogida por
los sensores inerciales, en especial el a´ ngulo de inclinaci´on
del centro de gravedad del robot y se intentar´a su control para
que se acerque lo m´as posible a la horizontal. Para la experimentaci´on se ha utilizado una plataforma m´ovil de dos ejes
controlada por un procesador Arduino, sobre la que se sit´ua
el robot AIBO. Al inclinarse la plataforma, el robot adapta la
posici´on de sus motores para recuperar la posici´on de equilibrio.
A la hora de implementar, tanto las DMPs como el algoritme PI2 , se ha utilizado el c´odigo sobre ROS del CLMC Lab,
en la University of Southern California2 . Se trata de un c´odigo
m´as complejo que el necesario para nuestra aplicaci´on pues
est´a pensado para el robot PR2 de Willow Garage [Bohren et
al., 2011]. Por ello, se ha adaptado al robot AIBO eliminando
aquellos packages innecesarios y modificando otros. Adem´as,
se ha creado un ejecutable que permite el funcionamiento del
robot con el conjunto de algoritmos implicados.
2.
Estado del arte
En la investigaci´on sobre estabilidad de robots, tanto b´ıpedos como cuadr´upedos, existen mltitud de trabajos. A continuaci´on se exponen un conjunto de antecedentes, organizados
1
El package que permite esta coumincaci´on ha sido dise˜nado inicialmente por el Dr. Ricado A. T´ellez y posteriormente desarrollado
en el Departamento de Autom´atica de la Universitat Polit`ecnica de
Catalunya.
2
La p´agina principal es http://www-clmc.usc.edu/ y el github es
https://github.com/usc-clmc/usc-clmc-ros-pkg
106
en diferentes a´ mbitos, que son de inter´es para el experimentaci´on llevada a cabo.
2.1. Robot AIBO
El robot AIBO (Artificial Intelligence RoBOt) es un robot
cuadr´upedo dise˜nado y fabricado por Sony Corporation, con
apariencia canina. El ERS-7 es el modelo elegido para el presente trabajo.
Este robot se considera aut´onomo en tanto que es capaz
de extraer informaci´on de su entorno, funcionar por un largo
per´ıodo sin intervenci´on humana, mover alguna de sus partes
en un entorno de trabajo y, finalmente, evitar situaciones de
peligro para las personas, los bienes y e´ l mismo.
Los dise˜nadores del robot AIBO persiguieron el objetivo
de conseguir que su comportamiento fuera lo m´as realista
posbile. Para ello, avanzaron en diferentes caminos:
Est´ımulos
• Comportamientos reflexivos y deliberados seg´un
una escala de tiempo.
• Comportamientos por o´ rdenes externas y por deseos internos (instintos y emociones).
• Motivaciones independientes generadas por partes
del robot como cuello, cola y patas.
Instintos y emociones con los que poder cambiar el comportamiento ante otros est´ımulos externos.
Aprendizaje y evoluci´on.
Las caracter´ısticas hardware del robot pueden consultarse
en [Anshar and Williams, 2007]. Las articulaciones, controladas mediante algoritmos PID, poseen rangos de trabajo diferentes seg´un sea su funci´on y las propias limitaciones f´ısicas.
En cuanto al software, el robot AIBO funciona a partir de
un sistema operativo denominado Aperios, desarrollado por
Sony. Luego podr´ıa considerarse que posee varias capas de
programario que permmiten el control del robot. Uno de los
mayores problemas con el robot AIBO, y uno de los motivos
del cese de su fabricaci´on, es la dificultad para descentralizar
los c´alculos en un procesador externo.
2.2.
Entorno de trabajo ROS
Robot Operating System [Robot Operating System, 2014]
es un entorno de trabajo open-source y flexible para la programaci´on de robots. Las bases de este proyecto se iniciaron
con unas investigaciones en Stanford en 2007, cuando se llevaron a cabo diferentes prototipos de entornos de trabajo para
programario de robots, como por ejemplo STanford Artificial
Intelligence Robot (STAIR) o Personal Robotics (PR). M´as
adelante, Willow Garage, una empresa inversora en rob´otica,
provey´o de recursos para mejorar el concepto y permitir crear
implementaciones correctamente testadas. Finalmente, con la
colaboraci´on desinteresada de numerosos investigadores, se
ha mejorado el n´ucleo de ROS y las herramientas principales
asociadas, convirti´endose en una de las plataformas con m´as
diversidad de algoritmos y m´as utilizada en las investigaciones de rob´otica.
Objetivos de ROS
El principal objetivo de ROS es poder reutilizar el c´odigo
de desarrollo y de investigaci´on en rob´otica. Ello se consigue mediante una estructura de procesos distribuidos. Otras
caracter´ısticas propias son adem´as:
Descentralizaci´on. ROS est´a estructurado de forma que los
processos est´an distribuidos, con la posibilidad de hallarse en hosts diferentes, pero funcionando conjuntamente.
¨
Plurilinguismo.
ROS se ha dise˜nado para ser neutral en
cuanto al lenguaje de programaci´on. Actualmente admite cuatro lenguajes de programaci´on: C++, Python,
Octave y LISP, habiendo ya otros en desarrollo.
Basado en herramientas. Se ha optado por dise˜nar un
n´ucleo simple, sobre el que se utilizan multitud de herramientas para construir i hacer funcionar los diversos
componentse de ROS.
Capa intermedia fina. En ROS se induce la independencia
de los algoritmos con su n´ucleo cre´andolos en librer´ıas
separadas. Se facilita la extracci´on de c´odigo y su reuso.
Gratuito y open-source. El c´odigo nativo de ROS est´a disponible p´ublicamente. Este hecho permite facilitar el
testeo y correcci´on de software en todos los niveles.
Herramientas de ROS
ROS se basa, en gran parte, en la multitud de herramientas disponibles para tareas como, por ejemplo, navegar por el
a´ rbol de c´odigo fuente, obtener y establecer los par´ametros de
configuraci´on, visualizar las conexiones entre procesos, medir el uso de ancho de banda, exponer de forma gr´afica los
datos de los mensajes. A continuaci´on se listan algunas de las
m´as utilizadas:
rviz
Entorno de visualizaci´on 3D que permite combinar los
datos de los sensores del robot y el modelo.
rosbag, rxbag y rxplot
Permiten almacenar y reproducir los datos de un mensaje o un t´opico, as´ı como visualizarlos en forma gr´afica.
rxgraph
Expone visualmente c´omo funcionan los processos de
ROS y sus conexiones.
2.3.
DMP (Dynamic Movement Primitive)
Las DMPs representan un movimiento a partir de un conjunto de ecuaciones diferenciales, de forma que la din´amica del propio sistema sea capaz de corregir las perturbaciones que puedan aparecer. Adem´as, la representaci´on del movimiento permite modificar de forma sencilla el objetivo (o
goal), as´ı como la velocidad del movimiento. Esta robustez y
adaptabilidad permiten mejorar los algoritmos utilizados en
aprendizaje por demostraci´on (learning from demostration o
LfD).
El LfD podr´ıa estructurarse en tres grandes grupos, en funci´on de c´omo se adquieren los datos utilizados en la demostraci´on:
Imitaci´on. El ejemplo se realiza sobre una plataforma que
no es el robot, por lo que la informaci´on extra´ıda debe
107
ser modificada e interpretada para adecuarse a las articulaciones del robot.
Demostraci´on. La ejecuci´on se realiza sobre el mismo robot. Un m´etodo podr´ıa ser la tele operaci´on del robot
por parte del demostrador.
Trayectoria programada. La demostraci´on se provee en
forma de una serie de coordenadas de una trayectoria.
El sistema din´amico se puede interpretar como un sistema proporcional - derivativo (PD), con part´ametros K, para
el coeficiente proporcional, y D, para el derivativo. Las variables x y v corresponden a la posici´on y a la velocidad, la
constante τ es el per´ıodo de muestreo del movimiento y g es
el par´ametro de atracci´on del sistema.
τ v˙ = K(g − x) − Dv + (g − x0 )f (s)
(1)
τ x˙ = v
(2)
El sistema din´amico unidimensional (1)-(2) es estable, con
punto final la posici´on g, para cualquier valor que tome f (s),
una funci´on no lineal que no depende del tiempo, sino de una
variable de fase s ∈ [0, 1] que representa la duraci´on del movimiento en tanto por uno.
P
i wi ψi (s)s
f (s) = P
(3)
i ψi (s)
τ s˙ = −αs
(4)
La variable can´onica posee una din´amica de desplazamiento definida por τ y por α, una constante pre-definida, como
se aprecia en la ecuaci´on diferencial (4). Adem´as, la funci´on f (s) puede aprender con objeto de realizar movimientos complejos de forma arbitraria, de acuerdo al ajuste de los
pesos wi .
Las ψi (s) son funciones base, en general gaussianas
ψi (s) = exp(−hi (s − ci )2 ) que permitir´an modificar la trayectoria inicial definida por los par´ametros K y D (Figura 1),
para as´ı poderse adaptar a nuevas situaciones, como evadir
obst´aculos, cambio de punto final, etc.
Figura 2: Efecto de los pesos wi (representados por θ) y del
objetivo (goal) en la trayectoria.
la posibilidad de comunicaci´on del robot AIBO a trav´es
de ROS. Por ello, siguiendo una iniciativa del Departament
d’Autom`atica de la Universitat Polit`ecnica de Catalunya, a
trav´es de diversos trabajos acad´emicos, se ha promovido la
realizaci´on de un package para permitir que el robot AIBO
pueda trabajar con ROS. Gracias a ello, ahora es posible la
transferencia de video, sonido y del control de las articulaciones del robot. Actualmente la conexi´on con AIBO comporta
la creaci´on de seis topics donde e´ ste publica y dos en los
que est´a como subscriptor:
Publica en los topics:
/aibo/infrared Informaci´on de cada sensor de infra rojos (distanceChest, distanceNear,
distanceFar), con la distancia calculada a un
eventual obst´aculo.
/aibo/image Publica las im´agenes de la c´amara frontal
del AIBO, en formato sensor msgs::Image.
/aibo/joints Informaci´on sobre las posiciones de cada
una de las articulaciones en unidades de grados.
/aibo/accel Informaci´on del acceler´ometre incorporado
en el AIBO en unidades de m/s2 .
/aibo/paws Los sensores de contacto de las patas son
binarios.
/aibo/touch Para los sensores de presi´on.
Subscriptor de los topics:
Figura 1: Representaci´on de la DMP con funci´on no lineal y
sin ella.
Realmente, en las DMPs, lo que determina la trayectoria
es la parte no lineal, y esta se ve controlada por los pesos wi
(ver Figura 2).
3.
3.1.
Estudios iniciales
Comunicaci´on mediante ROS
El entorno de trabajo ROS es una herramienta que est´a
al orden del d´ıa en rob´otica. Hasta el momento, no exist´ıa
/aibo/sound Donde se publican los sonidos a ser reproducidos per AIBO.
/aibo/subJoints Donde se informa a AIBO de la posici´on deseada para las articulaciones. El mensaje es
de tipo aibo server::Joints3 con las unidades en grados.
Entre AIBO y ROS
El funcionamiento actual de la comunicaci´on entre AIBO y
ROS se basa en URBI. De igual forma, las acciones de control
publicadas en ROS se interpretan y se transforman en comandos de URBI. Estas dos tareas se reproducen en paralelo a
trav´es de dos clientes de URBI por separado: (1) cliente publicador, que es el que introduce los datos de AIBO en los
3
Este tipo de mensaje est´a inclu´ıdo en el package
aibo server.
108
Figura 3: Comunicaci´o entre l’AIBO, URBI i ROS
topics; (2) client subscriptor, con la funci´on de recoger lo
que se ha publicado en el topic de comandos.
Publicaci´on en ROS de informaci´on de AIBO a trav´es de
URBI
1. URBI solicita la informaci´o a AIBO, en forma de
callbacks.
2. URBI, por otra parte, publica de forma continuada
en los topics, donde hay subscriptores, el mensaje relacionado con el topic.
3. En el momento en que la informaci´on de AIBO es
recibida por URBI, se modifica el mensaje que este
publica en ROS.
Control de las articulaciones a partir de un topic
1. El algoritmo de control crea un topic denominado aibo server/aibo/subJoints, y cada
vez que se ha de modificar la posici´on de las articulaciones, publica un message4 .
2. Al aparecer un nuevo message en el topic, URBI toma el message y lo transforma para enviarlo
como comando a las articulaciones de AIBO.
3.2.
Entre el algoritmo de control y ROS
Con “algoritmo de control” nos referimos al c´odigo que
procesa los c´alculos que se requieren para llevar a cabo todo el proceso de estabilizaci´on. Este c´odigo se ejecuta en un
ordenador o servidor, donde est´a instalado todo el software
requerido.
El algoritmo de control s´olo depende de ROS para recoger
la informaci´on del conjunto acceler´ometro-giroscopio y para
ejecutar el movimiento de las articulaciones de AIBO. Por
tanto, el node de ejecuci´on es tanto subscriptor del topic
del sensor, como, a la vez, es publicador del topic de los
comandos para las articulaciones.
3.3.
Entre el Arduino y ROS
El conjunt acceler´ometro-giroscopio est´a conectado al Arduino, por lo que ha de ser e´ ste quien cree el topic donde se publica la informaci´on que ha de transmitir por ROS
al algoritmo de control. Para ello se utilizar´a el package
rosserial.
4.
Control de estabilidad
Intentar estudiar la estabilidad din´amica del robot [Yazdani
et al., 2012] implicar´ıa un grado de complejidad demasiado
elevado, por lo que el trabajo se ha limitado a la estabilidad
est´atica [Hugel and Blazevic, 1999], es decir mantener el centro de gravedad CdG del robot dentro del pol´ıgono de estabilidad en todo momento.
Se han planteado dos tipos de aproximaciones al problema.
La primera consiste en intentar mantener el CdG siempre en
4
El message contiene un conjunto de floats que representan
cada una de las articulaciones.
el mismo punto. La plataforma introduce una perturbaci´on al
sistema, desplazando el robot, quien ha de interpretar el desplazamiento e intentar corregirlo. Este planteamiento, como
se ver´a, supera el grado de precisi´on conseguido por los sensores, por lo que ser´a desestimada. La otra posibilidad, m´as
sencilla, consiste en mantener la horizontalidad del cuerpo de
AIBO. Es decir, el robot ha de ser capaz de reaccionar ante
movimientos de la plataforma base con el objetivo de mantenerse en horizontal. Esta es la aproximaci´on que se tomar´a.
Una forma de realizar el control de estabilidad podr´ıa ser
bas´andose en un modelo de AIBO. Adem´as de beneficiarse de
la cinem´atica inversa, un modelo permir´ıa aplicar algoritmos
de control de estabilidad de forma virtual, en un simulador.
Sin embargo, no existe en la literatura un modelo del sistema
‘AIBO’ lo bastante preciso como para poder trabajar con su
estabilidad
Por ello, y con objeto de demostrar la viabilidad del entorno creado sobre un robot que ya no est´a en producci´on
desde hace a˜nos, se ha determinado utilizar los algoritmos de
DMPs, los cuales trabajan sin necesidad de conocer el modelo del sistema que est´an controlando y constituyen el estado
del arte en aprendizaje rob´otico.
La creaci´on del algoritmo de control de estabilidad basado
en DMPs re realizar´a a partir del package de Scott Niekum,
que est´a dise˜nado sobre el algoritmo modificado de [Pastor et
al., 2009]:
1. Dada una trayectoria, se calculan los pesos que la aproximan y se crea la DMP.
2. Proporcionadas las caracter´ısticas del movimiento
deseado (posici´on y velocidad actual, objetivo final,
tiempo. . . ), se realiza el c´alculo de las acciones de control.
3. Para cada acci´on de control se comprueba si existe modificaci´on del objetivo final o si se ha acabado de realizar
el movimiento. En caso de cambiar de objetivo, se repite
el paso anterior; en caso de haber finalizado, se para el
robot y se procede a comprobar continuadamente si se
genera un nuevo punto objetivo.
5.
Implementaci´on
La fotograf´ıa de conjunto del sistema implementado es la
que puede observarse a la Figura 4.
Un requisito imprescindible para poder conseguir recuperar la estabilidad del robot es disponer de medidas de los movimientos del robot. Inicialmente se pens´o en utilizar el sensor triaxial de accelerometr´ıa que lleva incorporado el propio
AIBO, y de esta forma poder estudiar su movimiento. Sin embargo, unas primeras comprobaciones ya demostraron que la
medida del a´ ngulo de inclinaci´on extra´ıda no era fiable ni lo
bastante precisa para la tarea a desarrollar.
5.1.
Sensores
Por ello, se procedi´o a comprar un sensor externo triaxial
de accelerometr´ıa con un giroscopio de tres ejes. El acceler´ometro es un MPU6050 y el giroscopio un GY-521. Se
han escogido por estar dise˜nados para poder ser utilizados
con Arduino. Adem´as, existe mucha informaci´on sobre ellos,
109
Figura 4: Fotograf´ıa del conjunto de elementos.
como librer´ıas (i2cdevlib), aplicaciones realizadas, y es
muy recomendable por su calidad-precio.
El c´alculo de la inclinaci´on se realiza utilizando el giroscopio como medida y filtrando los datos con ayuda de las
medidas del acceler´ometro, ya sea como un filtro de Kalman
o como un filtro complementario. Ambos filtros no difieren demasiado en los resultados aportados, el Kalman siendo
algo m´as preciso, pero requiere de mayores recursos computacionales.
Puesto que se cuenta con un Arduino Uno para realizar el
procesado y la librer´ıa de ROS ya ocupa pr´acticamente la mitad de la memoria del microcontrolador, se ha optado por el
filtro complementario,
θcompl = (1 − λ)(θcompl + wgiro dt) + λθaccel
(5)
sobre el que se han realizado algunas mejoras. Para trabajar
con la horizontalidad del robot ya es suficiente con la medida
de la inclinaci´on.
5.2. Comunicaciones
En el apartado 3.3 se explic´o la forma de transmisi´on de la
informaci´on desde Arduino a ROS. La comunicaci´on entre el
sensor y el microcontrolador se basar´a en el bus de comunicaci´on I2 C, un bus bidireccional, pero que no permite enviar
y recibir informaci´on de forma simult´anea.
La comunicaci´o con AIBO desde el ordenador donde corre
el algoritmo de control de estabilidad se realiza a trav´es de un
Access Point (AP). El tipo de cifrado de la contrase˜na debe
ser WEP o sin contrase˜na.
Para configurar la tarjeta de red de AIBO se ha de acceder al fichero de configuraci´on de la tarjeta de memoria OPEN-R\SYSTEM\CONF\WLANDFLT.TXT. Una posible configuraci´on es la que se expone a continuaci´on, [T´ellez,
2004]
HOSTNAME=AIBO
ETHER_IP=192.168.10.124
ETHER_NETMASK=255.255.255.0
IP_GATEWAY=192.168.10.1
ESSID=AIBONET
WEPENABLE=1
WEPKEY=AIBO2
APMODE=2 # this mode indicates auto-mode
CHANNEL=3
5.3.
Procesos iniciales
Para el buen funcionamiento de las DMPs es necesario iniciar una serie de procesos que permitan el intercambio de informaci´on y as´ı poner en funcionamiento el conjunto de sistemas.
Primero se inicia la carga del programa de
control del CdG en Arduino. En el GitHub
github.com/lluissalord/TFG puede recuperarse un
programa de Arduino (arduino/MPU6050 compl.ino)
que debe ser instalado en la placa para poder transmitir
110
de forma correcta la informaci´on en el topic de ROS
correspondiente (/pos).
Parar poder realizar la carga del programa, se ha de tener
conectado el Arduino con un cable USB al ordenador, se ha de
abrir con el IDE de Arduino el fichero mencionado y realizar
la opci´on Archivo->Subir.
Una vez dispuesto el Arduino, viene la fase de ejecuci´on
por l´ınea de comandos, las cuales podr´ıan integrarse en un
fichero launch. Cada una de las acciones seguientes debe realizarse por separado en un terminal independiente, preferiblemente en este orden:
$ roscore ejecuta el ROS Master.
$ rosrun rosserial python serial node.py \dev\ttyACM0
activa la comunicaci´on entre el Arduino y ROS.
Podr´ıa darse el caso que la entrada de datos no sea
\dev\ttyACM0; para corroborarlo se ha de observar
en el IDE de Arduino a qu´e puerto est´a conectado.
$ rosrun aibo server aibo server 192.168.0.124 ejecuci´on
del programa que permite la comunicaci´on AIBO-ROS.
El n´umero 192.168.0.124 es la IP del robot AIBO, la
cual var´ıa seg´un la configuraci´on que se haya seguido
en la fase de set-up de la conexi´on inal´ambrica.
$ rosrun dmp execute dmp execute 0 inicia el algoritmo
de control. El n´umero final var´ıa entre 1 y 0, seg´un si
se desea utilizar el algoritmo de aprendizaje PI2 o no,
respectivamente.
5.4. Funcionamiento de DMPs con PI2
El funcionamiento con el uso del algoritmo PI2 var´ıa significativamente respecto a las DMPs originales. El algoritmo
PI2 ha de permitir un proceso de aprenendizaje iterativo hacia el objetivo fijado, sin cambiar las condiciones del entorno.
Aunque el algoritmo ha sido generado, los resultados no fueron satisfactorios, por lo que se descart´o su uso en este trabajo.
6.
Resultados, conclusiones y trabajos futuros
Puede considerarse que los resultados conseguidos son
muy satisfactorios ya que se han cubierto los objetivos previstos.
A nivel global, se ha podido realizar la optimizaci´on de la
adaptabilidad del robot a un entorno accesible y desconocido.
A nivel de objetivos espec´ıficos, en cuanto a accesibilidad del trabajo para futuras extensiones, en tanto que
englobado en la iniciativa de recuperaci´on del robot AIBO de Sony, se ha actualizado continuadamente una plataforma de desarrollo colectivo de software GitHub. Toda
la faena realizada puede consultarse y descargarse desde
https://github.com/lluissalord/TFG/. En referencia a la implementaci´on del entorno de comunicaci´on,
se ha mejorado el package inicial. Se ha podido tambi´en
demostrar c´omo esta plataforma permite la implementaci´on
de algoritmos de control que son estado del arte a nivel de
investigaci´on. Por otra parte, se ha realizado un estudio de los
moviments del robot a partir de un sensor externo triaxial de
accelerometr´ıa y un giroscopio de tres ejes. Las inclinaciones
se han registrado perfectamente, con una precisi´on superior
a la requerida para los c´alculos. Sin embargo, la informaci´on
de los desplazamientos calculada a partir del acceler´ometro
no es fiable.
Se pueden, adem´as, plantear varias l´ıneas de trabajo: (1)
mejoras en la comunicaci´on AIBO-ROS, la cual provoca actualmente bloqueos temporales; (2) implementaci´on del algoritmo PI2 de forma m´as integrada; (3) plataforma automatizada para facilitar el aprenendizaje del algoritme anterior
manteniendo una inclinaci´on constante; (4) conseguir extraer
el desplazamiento del CdG gracies al uso de algoritmos de
visi´on; (5) mejorar el modelo del robot AIBO.
Referencias
[Anshar and Williams, 2007] Muh. Anshar and Mary-Anne
Williams. Extended Evolutionary Fast Learn-to-Walk Approach for Four-Legged Robots. Journal of Bionic Engineering, 4(4):255–263, December 2007.
[Bohren et al., 2011] Jonathan Bohren, Radu Bogdan Rusu,
Edward Gil Jones, Eitan Marder-Eppstein, Caroline Pantofaru, Melonee Wise, Lorenz M¨osenlechner, Wim Meeussen, and Stefan Holzer. Towards autonomous robotic
butlers: Lessons learned with the PR2. In ICRA, pages
5568–5575. IEEE, 2011.
[Buchli et al., 2011] Jonas Buchli, Freek Stulp, Evangelos
Theodorou, and Stefan Schaal. Learning variable impedance control. International Journal of Robotics Research,
2011.
[Hugel and Blazevic, 1999] Vincent Hugel and Pierre Blazevic. Towards efficient implementation of quadruped gaits
with duty factor of 0.75. Robotics and Automation, 1999.
. . . , (May), 1999.
[Pastor et al., 2009] Peter Pastor, Heiko Hoffmann, Tamim
Asfour, and Stefan Schaal. Learning and generalization of
motor skills by learning from demonstration. 2009 IEEE
International Conference on Robotics and Automation, pages 763–768, May 2009.
[Raibert, 2008] Marc Raibert. BigDog, the Rough-Terrain
Quadruped Robot. In Myung J. Chung, editor, Proceedings of the 17th IFAC World Congress, volume 17, 2008.
[Robot Operating System, 2014] Robot Operating System.
ROS.org, 2014. Fecha de consulta: 22/02/2014.
[Schaal, 2006] Stefan Schaal. Dynamic Movement Primitives -A Framework for Motor Control in Humans and Humanoid Robotics. In Hiroshi Kimura, Kazuo Tsuchiya,
Akio Ishiguro, and Hartmut Witte, editors, Adaptive Motion of Animals and Machines, pages 261–280. Springer
Tokyo, 2006.
[T´ellez, 2004] Ricardo A. T´ellez. Aibo Quickstart Manual.
Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004.
[Yazdani et al., 2012] Reza Yazdani, Vahid Johari Majd, and
Reza Oftadeh. Dynamically stable trajectory planning for
a quadruped robot. 20th Iranian Conference on Electrical
Engineering (ICEE2012), pages 845–850, May 2012.
111
Brain-physical activity mapping using low cost EEG sensors
L.M. Soria Morillo, J.A. Álvarez García, I. Cuadrado-Cordero, J.A. Ortega Ramírez
University of Seville
Computer Languages and Systems Dept.
Avenida Reina Mercedes S/N, 41012
{lsoria, jaalvarez, icuadrado, jortega}@us.es
Abstract
This paper presents a prototype brain interface to recognize a set of activity contexts based on EEG signals.
Electrical impulses are captured using the Emotiv EPOC
and MindWave devices. After signal processing for
noise reduction caused by movement, the signal from the
EEG is classified in order to find structural patterns related to the physical activity performed by the user.
1 Introducción
El uso de la electroencefalografía ha sido usado durante la
última década para el estudio de la actividad cerebral. En la
mayoría de los estudios, se pretende determinar los efectos de
ciertos pensamientos sobre la corteza cerebral. De este modo
se establece una relación causa-efecto que permite estudiar
los diferentes cortex cerebrales.
La combinación entre la medicina y los sistemas de aprendizaje han hecho que se hayan podido alcanzar hitos que eran
impensables hace años. Desde el aislamiento de la actividad
cerebral en función de los pensamientos, hasta el manejo de
dispositivos electrónicos a través de una interfaz cerebral.
Esto ha dado lugar a una nueva era en el ámbito de la interacción persona-computador, caracterizada por la ausencia de
órdenes directas o acciones por parte del usuario, para dar
paso al manejo mediante pensamientos directos.
En el afán de aislar las acciones, los investigadores han determinado asociaciones que permiten determinar si la música
escuchada es o no del gusto del usuario, o si un anuncio de
televisión capta o no la atención del individuo. Esto evidentemente está siendo explotado por la industria publicitaria.
Entre estas acciones, en este estudio prestaremos especial
atención a las interacciones físicas y los efectos que estas provocan en el estado mental del usuario. ¿Cómo afecta al cortex
cerebral una sesión de cocina? ¿Hay efectos a nivel eléctrico
cuando el usuario se encuentra leyendo correos electrónicos?
El determinar estas asociaciones a alto nivel permitirá ir un
paso más allá en el reconocimiento de actividades.
Hasta el momento, la mayoría de trabajos en el ámbito del
reconocimiento físico de actividades han estado basados en
el uso de sensores inerciales o a través de visión por computador. En el primer caso, existen limitaciones que no pueden
ser solventadas por este tipo de sensores, sobre todo en el ámbito de reconocimiento de actividades de alto nivel. Por otro
lado, mediante la visión por computador la intimidad del
usuario queda en entredicho y, aun aceptando esta limitación,
el ámbito de aplicación está limitado a un entorno controlado
de videovigilancia.
El estudio de las señales corticales a alto nivel puede ser
transcendente para establecer relaciones directas y automáticas entre acciones físicas y reflejos mentales que harán que
el entorno del usuario se adapte, no sólo a la actividad realizada, sino al efecto que tiene dicha actividad a nivel subjetivo.
¿Podría imaginar que un sistema de reconocimiento de actividades fuera capaz de determinar que está cocinado? ¿Y si
además reconociera que no le gusta el olor del menú y decidiera ofrecerle la oportunidad de cambiar de plato?
2
Adquisición de datos EEG
El dispositivo Emotiv ha sido elegido por diversas razones
para la adquisición de las señales de actividad cerebral. En
primer lugar debido a su precio que, en comparación con
otros sistemas de electroencefalografía profesionales es mucho más reducido. A pesar de su precio, el hecho de poseer
diferentes sensores hace que las capacidades de procesamiento para la búsqueda de correlaciones entre actividad física y actividad cerebral sea más precisa.
112
Por otro lado, la versatilidad y la facilidad de instalación son
puntos a favor que han favorecido la toma de esta decisión.
En la siguiente imagen se puede observar la diferencia entre
un sistema EEG profesional (izquierda) y el Emotiv EPOC
(derecha).
Sin embargo, la reducción de canales y la poca sujeción presente en los sensores del Emotiv EPOC hacen que la señal
presente un elevado nivel de ruido.
Recientes estudios han demostrado que el cortex motor primario se encuentra dividido en conjuntos de neuronas agrupadas en función de la actividad motora encargada de coordinar. En la siguiente figura se puede ver una ilustración de
esta agrupación.
3 Correlación Actividad Física-Cerebral
En la siguiente figura se muestra la relación entre el movimiento de la mano izquierda y la falta de movimiento de la
misma. En el dominio frecuencial se puede apreciar una variación en las frecuencias correspondientes entre 10 y 20 Hz
respecto a la actividad basal.
Debe notarse que la mayor fluctuación en la actividad eléctrica se produce en el cortex motor primario, asociado al sensor F3 en el mapa del EPOC.
Esta agrupación permite determinar con relativa precisión el
movimiento realizado por el individuo de manera externa. Sin
embargo, la precisión de los aparatos de medición, entre ellos
el Emotiv EPOC empleado en este estudio, no es suficiente
para medir las diferencias de potencial entre las zonas corticales.
Durante este estudio se pretende establecer una relación en el
ámbito frecuencial que permita clasificar grupos de movimiento en función a sus estructuras generales y su cadencia
de repetición. Andar, correr, estar inmóvil o estar sentado son
actividades de alto nivel que sistemas de basados en acelerometría permiten reconocer. Sin embargo, el emplazamiento
de los sensores juego un paper crucial para su reconocimiento. Pero obviando este inconveniente, son sistemas poco
intrusivos que cumplen adecuadamente su cometido.
En cambio, si se pretende dotar al sistema de reconocimiento
de actividades físicas de un mayor nivel de granularidad, los
sensores inerciales no son una buena alternativa para llevarlo
a cabo. Actividades como cocinar, escuchar música o ver la
televisión, difícilmente pueden ser diferenciadas de andar y
estar sentado.
113
Gracias al empleo de señales de electroencefalografía esto se
convierte en una realidad. El reconocimiento de este perfil de
actividades física no sólo es evidente a nivel motor, sino a
nivel emocional mediante variaciones en la actividad del lóbulo frontal.
Desde el punto de vista de la función motora, en el siguiente
mapa de actividad cerebral puede apreciarse como en torno a
los 22Hz la actividad cerebral es evidentemente más alta
cuando se produce un movimiento en la mano izquierda.
Como puede verse en la siguiente figura, ciertas actividades
físicas que no tendrían impacto a nivel inercial, como por
ejemplo hablar con otra persona, pueden ser determinadas
claramente mediante el uso de sensores electroencefalográficos. Concretamente, la actividad cerebral presente en una
persona que ha estado hablando durante más de 20 minutos
es claramente superior en el lóbulo parietal.
3 Trabajos futuros
En el contexto de esta nueva línea de investigación, el principal objetivo es desarrollar un sistema de adquisición de datos
procedentes el Emotiv EPOC empleando OpenVibe y Matlab
como software matemático. Este sistema permitirá obtener
datos procedentes del dispositivo y estudiar la actividad cerebral en el ámbito del reconocimiento de actividades a alto nivel.
En este sentido, existen multitud de trabajos relacionados con
el estudio del movimiento ocular o articular de manera aislada. Sin embargo, en esta línea se pretende evitar el aislamiento de los movimientos y trabajar con ellos, junto con actividad cerebral sensorial, para permitir inferir conjuntos de
actividades de alto nivel.
Por último, es imprescindible identificar características en la
señal cerebral para llevar a cabo la clasificación de las actividades físicas. En este sentido, trabajar en el dominio frecuencial favorece la extracción de características y la discretización de las mismas. El trabajo en el ámbito discreto de la actividad cerebral será uno de los principales objetivos de este
trabajo.
References
Vallabhaneni, A., Wang, T., & He, B. (2005). Brain—
Computer Interface. InNeural Engineering (pp. 85121). Springer US.
Wolpaw, J. R., Birbaumer, N., Heetderks, W. J., McFarland, D. J., Peckham, P. H., Schalk, G., ... &
Vaughan, T. M. (2000). Brain-computer interface
technology: a review of the first international meeting. IEEE transactions on rehabilitation engineering, 8(2), 164-173.
Hill, N. J., Ricci, E., Haider, S., McCane, L. M., Heckman, S., Wolpaw, J. R., & Vaughan, T. M. (2014). A
practical, intuitive brain–computer interface for communicating ‘yes’ or ‘no’by listening. Journal of neural
engineering, 11(3), 035003.
Vala, M. N., & Trivedi, M. K. (2014). Brain Computer Interface: Data Acquisition using non-invasive Emotiv
Epoc Neuroheadset.
Lee, W. T., Nisar, H., Malik, A. S., & Yeap, K. H. (2013,
June). A brain computer interface for smart home
control. In Consumer Electronics (ISCE), 2013 IEEE
17th International Symposium on (pp. 35-36). IEEE.
Muñoz, J., Muñoz, C., & Henao, O. (2014). Diseño de
una estación de trabajo para personas con discapacidad en miembros superiores usando una interfaz
cerebro computador.
Garcia–Molina, G., Tsoneva, T., & Nijholt, A. (2013).
Emotional brain–computer interfaces. International
Journal of Autonomous and Adaptive Communications Systems, 6(1), 9-25.
da Silva, N. A., Maximiano, R., & Ferreira, H. A. (2014,
January). Hybrid Brain Computer Interface Based on
Gaming Technology: An Approach with Emotiv EEG
and Microsoft Kinect. In XIII Mediterranean Conference on Medical and Biological Engineering and
Computing 2013 (pp. 1655-1658). Springer International Publishing.
Li, M., Zhang, Y., Zhang, H., & Hu, H. S. (2013). An
EEG Based Control System for Intelligent Wheelchair. Applied Mechanics and Materials, 300, 15401545.
Doud, A. J. (2013). Motor imagery retraining after stroke
with virtual hands: An immersive sensorimotor
rhythm-based brain-computer interface (Doctoral
dissertation, UNIVERSITY OF MINNESOTA).
114
Zainuddin, B. S., Hussain, Z., & Isa, I. S. (2014, March).
Alpha and beta EEG brainwave signal classification
technique: A conceptual study. In Signal Processing
& its Applications (CSPA), 2014 IEEE 10th International Colloquium on (pp. 233-237). IEEE.
115
Mejorando la interoperabilidad en la Smart City: generación automática de servicios web
José I. Sánchez-Venzalá
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
[email protected]
A. Fernández-Montes
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
[email protected]
Resumen
El concepto de Smart Cities está experimentando
actualmente un tremendo auge. Mundialmente
existen multitud de iniciativas para implementar el
paradigma de ciudad inteligente, que busca mejorar
la vida de las personas que las habitan mediante herramientas TIC.
FI-WARE1 es el proyecto de referencia para Future
Internet en el que se basan numerosas iniciativas de
Smart Cities.
Uno de los problemas comunes en el desarrollo de
las Smart Cities es la publicación de los datos que
en ellas se generan, con objeto de ser explotados
por las distintas aplicaciones siguiendo las líneas
que los gobiernos están impulsando, paradigma
llamado OpenData.
Este artículo busca proporcionar una forma de automatizar mediante tecnología de servicios web el
proceso de publicación y acceso a los datos recogidos por las diferentes fuentes para su explotación.
cotidiana y el Internet of Things está comenzando a ser una
realidad.
En este contexto nace el concepto de Smart City, que persigue mediante TIC mejorar la calidad de vida de las personas
optimizando la interacción entre éstas y el entorno urbano.
Existen multitud de definiciones del concepto Smart City en
la bibliografía:
•
•
•
•
1. Introducción
La tasa de crecimiento de la población mundial y su concentración en el área urbana de las ciudades, impulsa a los gobiernos a buscar soluciones y formas de optimizar la vida en
las mismas.
Por otro lado, la evolución de la tecnología está incrementando las capacidades de procesamiento, de almacenamiento
y de comunicación de los dispositivos, y mejorando la forma en que computadores y personas se relacionan. Los
dispositivos computacionales son ya parte de nuestra vida
1
http://www.fi-ware.org
J.A. Ortega
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
[email protected]
El uso de tecnologías computacionales inteligentes
para hacer los componentes críticos de la infraestructura y servicios de la ciudad más inteligentes,
interconectados y eficientes.
Una ciudad que trata de hacerse más eficiente, sostenible, equitativa y habitable.
Una ciudad que monitoriza e integra el estado de
sus infraestructuras críticas, que optimiza sus recursos, que prevé sus actividades de mantenimiento
y que monitoriza los aspectos de seguridad al tiempo que maximiza los servicios para la ciudadanía.
Una ciudad repleta de dispositivos, interconectada
e inteligente. Los dispositivos permiten capturar e
integrar los datos de la vida real mediante sensores
y otros dispositivos. Interconectada se refiere a la
integración de estos datos en plataformas de
computación y la comunicación de ésta mediante
los servicios disponibles por la ciudad. Inteligente
se refiere a la inclusión de análisis complejo, modelado, optimización y visualización de procesos
para optimizar decisiones operacionales.
A partir de estas definiciones, se pueden obtener los conceptos más importes relacionados con las Smart Cities: infraestructura, comunicaciones, computación, información, tecnología, servicios, eficiencia, ciudadanos, sostenibilidad, habitabilidad, calidad de vida, integración, recursos, optimización y accesibilidad.
116
Las Smart Cities se han identificado como uno de los temas
centrales del programa europeo de investigación por su
potencial y su importante contribución a la calidad de vida
de los ciudadanos en los próximos años. La evolución del
paradigma creará también un negocio emergente alrededor
del mismo y producirá un importante impulso en la economía. De acuerdo con Gartner, en 2012 había 143 proyectos
en curso de Smart Cities alrededor del mundo.
El proyecto europeo de Smart Cities, identifica seis dimesiones para medir la inteligencia de la ciudad: economía,
personas, gobierno, movilidad, entorno y habitabilidad.
Sin embargo, debido a la fase temprana en que se encuentra
el paradigma Smart City, los retos son aún numerosos
[Batty, 2012]:
•
•
•
•
•
•
•
Una nueva visión de los problemas urbanos
Métodos efectivos y viables de coordinar las tecnologías urbanas
Modelos y métodos para utilizar la información urbana aprovechando sus escala espacio temporal
Desarrollo de tecnologías de difusión y comunicaciones
Nuevas formas de organización del gobierno urbano
Definición de problemas urbanos, de transporte y
energía
Manejo del riesgo, incertidumbre y amenazas en la
Smart City
El objetivo del presente artículo es describir una forma de
implementar la automatización de la generación de servicios
web que mejore la interoperabilidad entre la recolección de
datos y el consumo de los mismos.
En una arquitectura orientada a servicio para la gestión de
una Smart City, como la propuesta en [Al-Hader et al.,
2009], se busca una planificación y gestión de recursos
eficiente que redunde en mayor calidad de servicio.
La generación automática de servicios web para la explotación de los datos generados por los diferentes dispositivos,
incrementará la interoperabilidad entre los componentes de
la arquitectura facilitando su integración.
Referencias
[Al-Hader et al., 2009] Al-Hader, M., Rodzi, A., Sharif, A.
R., & Ahmad, N. (2009). SOA of Smart City Geospatial Management. 2009 Third UKSim European Symposium on Computer Modeling and Simulation, 6–10.
doi:10.1109/EMS.2009.112
[Batty, 2012] Batty, M., Axhausen, K. W., Giannotti, F.,
Pozdnoukhov, a., Bazzani, a., Wachowicz, M., …
Portugali, Y. (2012). Smart cities of the future. The
European Physical Journal Special Topics, 214(1),
481–518. doi:10.1140/epjst/e2012-01703-3
117
A multidimensional perspective to recommend experts
´
Nuria
Agell
ESADE–URL
Sant Cugat del Vall`es
[email protected]
Germ´an S´anchez
ESADE-URL
Sant Cugat del Vall`es
[email protected]
Abstract
This works introduces an expertise recommender
system designed for recommending not just the person with the right level of expertise in a certain
set of topics, but also “the right expert”. This is
achieved by extending the dimensions considered
in the recommending process. Apart from the expertise of the candidates, we consider their qualifications, proximity and current availability.
1 Introduction
Recommender systems can help people in organisations to
find people who have some expertise in a specific area. Such
expertise recommender systems (ER) will allow organisations to expand the interaction among users (workers) with
different backgrounds and expertise level, leading to improving creativity in the generated solutions.
In the literature of expertise recommender systems, they
focus on finding the expert with the “right level of expertise”
rather than “the right expert”. The ER described in this work
tries to fill this gap by considering additional information regarding how the candidates interact with the existing system
in the organisation (qualifications), their proximity to the user
and their current availability.
Some of the analysed systems take into account more information than just the expertise of the candidates. However, this
information is not treated in the most effective way: in some
cases, it is just used to filter the recommendations; in other
cases, this information is aggregated by means of a weighted
mean, requiring the user to define a set of parameters. Both
approaches could result in a candidate being prematurely discarded due to one of the considered criteria, while meeting
most of the requirements of the user with high scores.
This work describes a system to recommend people based
on an appropriate mixing and an optimal matching of the
characteristics of the candidates and the preferences of the
user. This is achieved by taking into account simultaneously
not only the expertise of the candidates but other relevant features.
The system allows the user to select the requirements that
best fit his/her interests. The recommendation is based on
the user’s inputted information, and allows him/her to select
among the recommended experts from a generated ranking.
2
Architecture
The ER system introduced in this work is a content-based recommendation system based on the definition of candidates’
profiles and the user’s preferences when asking for a recommendation. The user can take advantage of this system to
know who “is good at what” (expertise) while also fulfilling his/her other requirements such as experts’ qualifications,
proximity to the user and current availability. Once the possible experts are selected, the system returns an ordered list
ranked according to the user’s preferences.
As displayed in Figure 1, the ER system can be considered
as an adaptation of the architecture ER-Arch for expertise recommender systems introduced by [McDonald and Ackerman,
2000].
Figure 1: Architecture of the ER introduced
Based on the mentioned architecture, the ER system consists of four modules: profiling, identification, selection and
interaction.
The Profiling module is responsible for building and maintaining profiles to be used in the recommendation process. Therefore, the main responsibility of this module is to translate data collected from the environment in
which the system is embedded into candidates profiles.
The profile of each candidate would be characterised by
four different types of variables:
118
• Expertise variables represent the areas of knowledge of the candidate.
• Qualification variables capture the behaviour of the
candidate while working with the system of the organisation.
• Proximity information is used to measure the distance between the user and the candidate, that is to
say, the ease of contact.
• Availability variable informs about the current
availability of the candidate.
The Identification module builds an initial list of candidates feasible to be recommended.
The Selection module is responsible for analysing and ranking the list of initial candidates. This module consists of
the following tasks:
• Assessing each candidate according to the user’s requirements.
• Aggregating the assessments into an overall degree.
• Ranking and selecting candidates.
The Interaction module provides the user with the necessary tools to define the recommendation requirements.
3
Conclusion
The system introduced in this work focuses on finding “the
right person” that will provide the used not only with the right
level of expertise but also with the right fit of his/her needs.
The ER presented performs this task by requesting the minimum number of inputs to the user, i.e., reinforcing the usability of the system. Ultimately, this approach will enhance
the collaborative work between perhaps previously unknown
parties in the organisation and therefore will improve the creativity of the obtained solution.
References
[McDonald and Ackerman, 2000] David W. McDonald and
Mark S. Ackerman. Expertise recommender: a flexible
recommendation system and architecture. In Proceedings
of the 2000 ACM conference on Computer supported cooperative work, pages 231–240. ACM, 2000.
119
Incorporating biomedical knowledge into m-Health applications: An example
public-private partnership
Josep Vehi and Remei Calm
Institut d’Informàtica i Aplicacions, Universitat de Girona,
Campus de Montilivi, Edifici P-IV, Girona
[email protected]
[email protected]
Abstract
In this paper a proposal to include biomedical
knowledge into m-health applications for Diabetes
Management is depicted. This article describes the
collaboration between MICELab Research Group
at the University of Girona and Social Diabetes.
Integrated personalized computer models are used
for personalized health status monitoring and prediction, assisting in the day-to-day management of
diabetes and promoting a healthy lifestyle.
1 Introduction
M-health has become the paradigm in personalized
health care, especially for chronic diseases. In the case of
diabetes, m-health applications are the best solution to promote self-management of the disease by patients. Decision
support tools, personalized prediction and prevention, risk
assesment tools, training tools and the social capabilities are
necessary components of any application of m-health. Social Diabetes is an example of m-health application that
incorporates many of these features. However, for the effective use of m-healths application in the health care system, it
is necessary to incorporate more biomedical knowledge in
them. Collaboration between MICELab group at the University of Girona and Social Diabetes aims to turn the Social
Diabetes application on a standard for personal health systems for diabetics.
A patient-oriented system needs not only to: (i) provide an
early estimate of individual risk, and (ii) assist in the-day-today management of diabetes, but also (iii) to calculate the
risk of diabetic complications for the individual, and the comorbidities at a time, and (iv) to suggest effective, personalized preventive and protective measures.
3
M-health applications for diabetes management.
One of the main gaps for the development of m-health
applications (and for any Personal Health Systems), is the
infusion of biomedical knowledge into m-health applications: i) m-health apps are not integrated with clinical evidence, biomedical and genetic information; ii) Data from
uncontrolled conditions in need of validation; and iii) mhealth apps not integrated with clinical guidelines and pathways.
In our proposal, physiological and epidemiological models will be integrated into the m-health application, incorporating clinical evidence and biomedical information. Data
from controlled experiments will be used to validate and
update the physiological models. Important clinical issues
will be addressed through modeling, i.e.: the reduction of the
impact of hypoglycemia and an increased awareness for the
patient of the implications of lifestyle in long-term complications. This will be done through the development of tools for
short-term hypoglycemia risk assessment and prevention,
prediction of mid-term glycemic control outcomes and longterm complications assessment.
2 Needs in Diabetes Management
There is a growing body of evidence for the need for an
individualized approach to diabetes treatment. Contributions
from systems engineering to what it has been coined “systems medicine” has made possible the development of systemic individualized models used for therapy optimization,
hypoglycemia prediction or closed-loop glycemic control
(artificial pancreas), among other applications, bridging the
gap to relevant clinical issues.
4
Integrated personalized models
The key component of such system is an individualized
integrated model of a T1DM patient, with prediction capabilities at different time scales. Target predicted clinical outcomes comprise hypoglycemia risk (short-term), measures of
glycemic control (mid-term) and risk of developing complications, both micro- and macro-vascular (long-term). This is
addressed through the integration of different modeling tech-
120
nologies at different levels: i) probabilistic models are used
to describe patient lifestyle or behavior; ii) physiological
models describe glucose-insulin regulatory system; and iii)
epidemiological models are used to assess the long-term risk
of complications and co-morbidities.
In the short term, physiological models are able to deal
with intra-patient variability employing interval model technology, providing consistent inputs for the hypoglycemia
risk prediction module. Lifestyle/behavior models provide
probabilistic mid-term scenarios to be simulated using the
glucose-insulin model. The glycemic control prediction
module uses the results of these mid-term simulations to
predict mid-term outcomes: A1c, glucose variability, number
of hypoglycemia events, etc. The output of the physiological
model and the glycemic control model together with other
patient-specific data will be inputs to the epidemiological
complications model.
Acknowledgments
Research supported by the Spanish Ministry of Science and
Innovation under grant DPI2010-20764-C02.
121
Using an improved rule match algorithm for the detection of broken driving rules in
an energy-efficient and safety relevant driving system
Emre Yay, Natividad Martínez Madrid1
Juan Antonio Ortega Ramírez²
1
Reutlingen University
School of Informatics
Alteburgstr. 150, 72762 Reutlingen, Germany
{emre.yay, natividad.martinez}@reutlingen-university.de
2
University of Seville
Department of Languages and Computer Systems
Av. Reina Mercedes s/n, 41012 Seville, Spain
[email protected]
Abstract
The individual driving behaviour has the opportunity to
improve the energy-efficiency and safety of a car. So far,
the vehicles were improved to save energy and to increase the safety mainly by optimising the engine and the
power train. In this paper, an improved rule match algorithm is introduced, which is used in the expert system
of human-centred driving system. The goal of the driving
system, which is in development, is to optimise the driving behaviour in terms of energy-efficiency and safety
by giving recommendations to the driver. The improved
rule match algorithm is used to check the incoming information about the car, driver and the environment
against the driving rules to recognise any breakings of a
driving rule. The information is gained by monitoring the
car, the driver and the environment using in-vehicle sensors and serial-bus systems. On the basis of the detected
broken driving rules, the driving system will create individual recommendations, which will allow eliminating
bad driving habits, while considering the driver needs.
1
Introduction
The protection of the environment and saving energy became fundamental for society and politics [1]. Thus, several
laws were enacted to reduce the greenhouse gas emissions
and to increase the energy-efficiency. Furthermore, the increasing number of drivers and vehicles on the road leaded to
more accidents and fatalities on the road [2]. According to [3]
the driving behaviour has a great impact on safety and on the
energy consumption of the car. Thus, adapted driving can
save energy up to 30% [4]-[6] and can increase the road
safety.
On the basis of these facts a driving system is introduced
briefly in this work, which is currently under development.
The goal of the driving system is to optimise the driving behaviour of the driver in energy-efficiency and safety by giving recommendations to the driver. It is possible to fulfil the
energy-efficiency and safety potential of adapted driving
when the driver adheres the energy-efficiency and safety relevant driving recommendations.
There are already driving systems trying to optimise the
driving behaviour in the terms of energy-efficiency or safety
[7]-[8]. However, these driving systems cover either the area
of energy-efficiency or safety. In contrast to these systems,
the driving system introduced in this paper will try to improve
the driving behaviour in terms of energy-efficiency and
safety. Furthermore, it adapts itself to the individual driving
behaviour by creating a driving profile of the driver. This allows to create recommendations based on any negative
change of the driving behaviour or the driver condition. In
addition, the acceptance of the driving system could be increased, as the driving system will show only useful recommendations to the driver. The first prototype of the driving
system will be developed on the basis of a driving system.
The second prototype will be connected to a real car, to test
the driving system in a real environment.
The following chapter gives a brief overview over energyefficient or safety relevant driving systems. Chapter 3 shows
the architecture of the driving system. The rule match algorithm used to detect broken driving rules is introduced and
evaluated in the chapters 4 and 5 respectively. Finally, a conclusion of this work and a forecast about the future work are
given in chapter 6.
122
2
Related Work
There are already driving systems trying to increase the
driving behaviour in terms of energy-efficiency or safety by
giving recommendations to the driver. The driving system
ANESA [9] is trying to reduce the energy consumption of the
car through freewheeling. This approach saves up to 13%
when the drivers followed the instructions of the driving system on time. However, freewheeling is only one aspect of energy-efficient driving, therefore the energy-savings could be
increased more using driving rules mentioned for example in
[6].
Another driving system [10] is trying to educate the driver
in eco-driving by giving advices to eliminate bad driving habits. It runs on a mobile phone and is based on the interaction
between the mobile phone and the car. The needed information for generating the recommendations are gathered using the internet connection of the mobile device and the diagnostic port of the car. However, the internet connection of the
mobile device may not be available during the whole journey,
why it is not guaranteed that the driving system is able to
gather all needed data for further processing. Additionally,
the driving system does adapt itself to the individual driving
behaviour of the driver.
The driving system of Kia [7] tries to increase the energyefficiency by indicating an energy-efficient driving behaviour using two different coloured lamps, which mean energyefficient driving and stand-by of the driving system or normal
fuel consumption of the vehicle. However, the driving system
shows neither the wrongdoings of the driver nor gives driving
recommendations to the driver. This would allow to eliminate
the bad driving habits of the driver, which are the main cause
of an inefficient driving behaviour.
The positive effect of an energy-efficient driving behaviour is that it supports safety, as it prevents aggressive driving, which is the main cause of accidents [4].
Besides the driving systems with the focus on energy-efficiency, there are also driving system with respect to safety.
DAISY [11] monitors the driver, the current driving situation
and the driver condition to be able to create warnings in dangerous situations. However, DAISY shows only warnings
when an dangerous situation is detected, for example situations which are susceptible for distractions, instead of trying
to improve the driving behaviour in terms of safety or eliminating the bad driving habits, which might have caused the
dangerous driving situation.
Another driving system with the focus on safety is DriveDiagnostics [8], which tries to educate the driver in terms of
safety. It monitors and analyses the car movement to indicate
the trip safety. DriveDiagnositcs consists of two feedback
systems: a real-time and an online feedback system. The realtime feedback warns the driver when his current driving behaviour does not match his typical driving behaviour or when
an aggressive driving behaviour is detected. In contrast, the
offline feedback shows the average trip safety to the driver
after the journey based on the recorded data during the journey. However, the safety could be increased more by monitoring additionally the driver condition. This would allow the
detection of uncommon driver conditions like fatigue using a
tracking system [12] or drowsiness by using vital sensors
[13]. Thus, the condition of the driver could be another factor
for detecting dangerous driving situations.
The presented driving systems cover either the area of energy-efficiency or safety. Furthermore, they do not consider
the individual driving behaviour or the condition of the
driver. In contrast, the driving system described in this work
adapts itself to the individual driving behaviour and considers
the driver condition. Furthermore, it tries to improve the driving behaviour in the areas of energy-efficiency and safety.
This allows the creation of individual driving recommendations in terms of energy-efficiency and safety, while considering the driver needs.
3
Architecture of the Driving System
Figure 1: An excerpt of the driving system's architecture
The driving system described in this paper is based on the
multi-tier architecture shown in Fig. 1. The driving system
has three main components, which are described in the following:
 The Data Layer is responsible for collecting all relevant data from the car, the environment and the driver.
It is connected to the in-car serial-bus systems to receive information about the car, to vital sensors for
monitoring the driver and to other sensors, which are
relevant for gathering information about the environment, like the weather condition. On the basis of the
collected information a driving profile is generated,
which describes the typical driving behaviour of the
driver. Furthermore, the Data Layer administrates and
stores all relevant information for further processing.
 The information stored and administrated in the Data
Layer is used in the Processing Layer to analyse the
driving behaviour. Therefore, it first predicts the car
state using the stored data in the Data Layer. On the
basis of the prediction and the data stored in the Data
Layer it checks if a driving rule is broken. Finally, it
generates on the basis of the detected broken driving
123
rule and the driving profile individual recommendations, which guide the driver to drive energy-efficient
and safe.
 The main purpose of the Graphical Layer is the rendering of the graphical user interface on the in-vehicle
display unit. Furthermore, it is responsible for showing
the generated recommendations to the driver using for
example the graphical user interface or an acoustic signal. It provides also the opportunity to configure the
driving profile by choosing the areas that the driver
wants to be improved like energy-efficiency, safety or
both areas.
In the following the Data Layer is described briefly. As the
main focus of this paper is the process of the recommendation
creation, especially the rule matching algorithm, the Processing Layer will be described in detail.
3.1 Data Layer
The Data Layer is responsible for gathering all needed information from the car, the driver and the environment.
Therefore, it is connected to the in-vehicle serial-bus systems
and to different sensors. In the first prototype the Controller
Area Network (CAN) serial-bus system is used to gather the
information about the car. An ear sensor is used to monitor
the pulse of the driver, which allows to calculate the heartrate coherence. It can be used to indicate drowsiness [14] and
stress [15] of the driver. As the environment of the car influences the energy-efficient and safe driving, for example the
weather condition, different sensors are connected to the Data
Layer for measuring these influences.
On the basis of the incoming data, a driving profile is generated to represent the typical driving behaviour of the driver.
However, the driving profile has to be updated until it has
enough data to represent the typical driving behaviour. The
gathered data are stored in the working memory, which is
placed in the Short Term Knowledge Base. The Mid Term
Knowledge Base consists of the driving profile. Finally, the
Long Term Knowledge Base stores information about the car,
like mileage, and the driving rules.
3.2 Processing Layer
The Processing Layer is responsible for analysing the driving behaviour in terms of energy-efficient and safe driving.
On the basis of the result of the analysis, the individual driving behaviour and the reaction of the driver to already given
recommendations the Processing Layer generates the driving
recommendations. The analysis of the driving behaviour is
done in the Rule Selector module. The Recommendations Inference Engine of the Processing Layer decides whether to
generate a recommendation and show it to the driver or not.
Moreover, the driving system tries to give an early feedback
to the driver why the state of the car is predicted in the Prediction Engine module using the Autoregressive-Moving Average algorithm [16]. This allows to show the recommendations to the driver on time, why the driver has enough time to
avoid the breaking of the rule. All relevant information that
is needed in the Processing Layer is gathered from the Data
Layer, respectively from the Short-, Mid- and Long Term
Knowledge Base.
In the following the modules Rule Selector and Recommendations Inference Engine will be described in detail. If
the reader is interested in the Prediction Engine module of the
driving system, the reader is encouraged to read [17].
3.2.1 Rule Selector
The Rule Selector module is responsible for the detection
of any broken driving rules, deviations from the typical driving behaviour and any uncommon driver condition, for example stress, anger and so on. Therefore, it compares the
gathered data from the Short Term Knowledge Base and the
predicted data against the driving rules and the driving profile
using a rule match algorithm. On detection of any broken
rule, deviation from the typical driving behaviour or an uncommon driver condition the recognised irregularity and the
corresponding data is put in to the Broken Rules Queue for
further processing. The Broken Rules Queue stores all detected irregularities and the data which caused the irregularity. The rule match algorithm used to analyse the current driving behaviour is described in chapter 4.
3.2.2 Recommendations Inference Engine
The Recommendations Inference Engine decides if it is
necessary show a recommendation to the driver. This allows
to increase the acceptance of the driving system by avoiding
the bothering of the driver by showing the driver recommendations which are not relevant in the mind of the driver. To
achieve this, the Recommendations Inference Engine first
gets an irregularity from the Broken Rules Queue and checks
the corresponding information against the driver profile,
which stores the already given recommendations and the past
reaction of the driver to them. The reaction to the already
given recommendations are calculated during the next cycles
after showing the recommendation. During the cycles, the
changes of the values that are relevant for a specific recommendation are analysed. If the changes are positive the driving system can assume that the driver adhered the recommendation. However, as the driver needs some time until the
driver is able to notice and to react to a recommendation, the
analysis of the reaction to a recommendation will be started
after a certain time.
The following example shows the explained approach. After giving the recommendation “to shift the gear to the next,
to keen the engine speed down” the Recommendations Inference Engine first waits until it starts the analysis of the driver
reaction. After a certain time, the Recommendations Inference Engine monitors the gear during the next cycles and
checks if the driver has shifted the gear. If a higher gear is
recognised the Recommendations Inference Engine will assume that the driver adhered the given recommendation. In
contrast, if no higher gear is noticed, the Recommendations
Inference Engine will show the same recommendation after a
124
Figure 2: The networks of the different algorithms: (1) Rete, (2) Treat, (3) Leaps and (4) the improved rule match algorithm
certain time again. In case of a repeated ignorance of that recommendation, the Recommendations Inference Engine will
decrease the generation frequency of that recommendation.
This allows the driving system to adapt itself to the individual
driving behaviour whereby the driver is not bothered by
showing the same recommendation. Furthermore, the acceptance of the driving system can be increased, as recommendations, which are not relevant in the mind of the driver,
are not showed.
4
Rule matching algorithm
The rule matching algorithm is used in the Rule Selector
module, explained in chapter 3.2.1, to detect the breaking of
driving rules, deviations from the normal driving behaviour
or an uncommon driver condition. There are already several
rule match algorithms whose goal is to compare rules against
a certain data set such as Rete, Treat and Leaps. In case of the
presented driving system the rules used in the rule match algorithms represent the rules for the detection of broken driving rules, the rules to detect deviations from the typical driving behaviour and the rules for the detection of uncommon
driver conditions. A rule used in a rule match algorithm consists of conditions and consequences. A condition in the driving rule to shift as soon as possible would be “current rpm <
2500 rpm” and “gear < 6th gear”, whereby the consequence
of that rule would be “shift up the gear” to keep the engine
speed down, when the driver is not driving at the highest gear.
The Rete algorithm [18] is using a tree structured network to
represent the rules, also called Rete network. Figure 2 (1) illustrates the Rete network of the rule to shift as soon as possible. A Rete network consists of alpha and beta nodes. Each
alpha node represents one condition of a rule, whereby a beta
node represents the intermediate relation of the alpha nodes.
For example the condition “current rpm < 2500 rpm” is represented by one alpha node. The beta node in our example
represents the relation of the alpha nodes “current rpm > 2500
rpm” and “gear < 6th gear”. The alpha and beta nodes consists
of a memory, which is used to store a copy of the data that
matched the node conditions. Thus, when the data set of
changes, the data within the Rete network has to be updated.
This is done by the Rete network by deleting the old data
stored in the node memories and adding the new data, which
matched the node conditions, into the node memories. If all
node conditions are satisfied, the rule is put into the conflict
set, which consists of all rules whose conditions are satisfied.
The conflict set is resolved and thus the consequence of the
rule is fired according to the conflict set resolution strategy,
which the user has to define, for example first come, first
served.
The Treat algorithm [19] is the evolution of Rete. The major
difference of Treat is that is does not use beta nodes to represent the intermediate relation of the alpha nodes, see Figure
2 (2). Instead, the relations of the alpha nodes are calculated
when they are needed. In the example in Figure 2 (2) the relation of the alpha nodes A and B are recomputed, when the
incoming data satisfied the condition of the nodes A and B.
If the result of the computation is positive, the rule is put into
the conflict set, where it waits for its activation according to
the conflict set resolution strategy. According to Miranker
[19] Treat is more effective than Rete as it needs less
memory, due to the missing beta nodes, and as it requires
fewer comparisons until the data is bind to the corresponding
node. Furthermore, the Treat algorithm does not compute the
alpha and beta nodes during the deletion of old data from the
node memories, as it manipulates the alpha nodes and the
conflict set directly. However, according to the evaluation results of Nayak et. al [20] the Rete algorithm outperforms
Treat in most cases, especially when it is used in static structures, as Rete saves intermediate relations instead of recomputing them. The difference in the results can be explained as
Nayak et al. used different metrics than Miranker, who
125
Figure 3: The result of the evaluation using the rules (1) shift as soon as possible at the latest by 2500 rpm,
(2) do not exceed the speed limit and (3) keep enough distance to the preceding car
counted only the number of comparisons, which may not “reflect the intrinsic differences between the match algorithms”
[20].
The Leaps algorithm [21], see Figure 2 (3), is based on the
Treat algorithm, why it is using alpha nodes for representing
the rule conditions and computes the intermediate relations
of the alpha nodes when required. The extension of the Leaps
algorithm is the lazy evaluation of the rules and the combination of the conflict set resolution strategy with the rule matching process. This allows to increase the firing rates of the rule
consequences and thus the decreasing of the execution time.
Figure 2 (4) shows the network of the improved rule match
algorithm, which contains of two alpha nodes, which point to
the corresponding value in the data set, and one beta node.
The approach of the improved rule match algorithm allows a
faster processing of the rule matching as it does not have to
update the data of every node of after every change of the
data set, which is inefficient for the driving system. Another
advantage of the algorithm is that the memory usage of the
improved rule match algorithm is less, as the alpha nodes
store only pointers to the data instead of storing the value itself.
The basis for the improved rule match algorithm is the Rete
algorithm, as Treat is outperformed by the Rete algorithm
[20]. Furthermore, the Leaps algorithm combines the rule
matching with the conflict set resolution why it can be neglected as the driving system is using the Recommendations
Inference Engine to solve the conflict set, respectively the
Broken Rules Queue.
The data set used in the Rule Selector module consists of information about the current driving behaviour. These information are stored in tuples, which are defined by the name of
the information and the corresponding value, for example
“current rpm : 3000”. The amount of the stored tuples are not
changing during the journey, instead they are gained at the
beginning of the journey from the car, the driver and the environment. After the first gathering of the tuples, the values
of the information are updated during the journey in the frequency of 100 Hertz. Thus, the usage of the original Rete algorithm in the presented driving system would cause massive
delete and write operations to keep the Rete network up to
date. To solve this issue, the Rete algorithm has been modified, so that the alpha nodes are getting a pointer to the corresponding tuples during the initialisation of the Rete network. Thus, after the update of the values in the tuples, the
Rule Selector module initiates the checking of the alpha node
conditions. If a condition of an alpha node is satisfied, the
result is stored in a logical value and is passed to the corresponding beta node. The result of the alpha nodes are stored
in the beta nodes using a logical value, as well. This allows
to avoid the storage of the values within the node memories.
5
Evaluation & Results
The evaluation of the improved rule match algorithm was
done by using a recorded eight minute journey on a driving
simulator. The recorded journey consisted of information
about the car like car speed, revolutions per minute and so on.
On the basis of the recorded journey, we evaluated the improved rule match algorithm and the Rete algorithm using
three different driving rules:
1. Shift as soon as possible at the latest by 2500 rpm
2. Do not exceed the speed limit
3. Keep enough distance to the preceding car
To measure the efficiency of the algorithms we used counted
the accesses to the node memories and the comparisons of the
data updated in the node memories. During the first measurement, both algorithms were initialised using the first driving
rule, which was used in Chapter 4 as an example. After the
initialisation the networks of both algorithms had the same
structure as in Figure 2 (4) and Figure 2 (1) with two alpha
nodes and one beta node. The networks of the algorithms consisted of only one alpha node and no beta node during measurement of the second and third driving rule, as these rules
have only one condition.
As shown in the result in Figure 3, the improved rule match
algorithm outperforms the Rete algorithm, as it needed fewer
comparisons of the node conditions and fewer accesses to the
node memories. During the eight minute journey, the improved rule match algorithm had only two accesses to the
126
node memories to keep the nodes up to date, as it passes only
a pointer to the nodes, which point to the corresponding value
in the data set. In contrast, the Rete algorithm needed more
accesses to the alpha and beta node memories, in which it removed the old and added the new data, which satisfied the
node condition. Furthermore, the Rete algorithm needed
more comparisons of the data against the different node conditions as the improved match algorithm. The improved rule
match algorithm needed about 14 times less data comparisons
against the node conditions of the third driving rule “do not
exceed the speed limit”.
In summary, the Rete algorithm needed more comparisons
and more accesses than the improved rule match algorithm.
The difference of the performance is the effect of passing a
pointer to the nodes and signalling to check the node conditions when the data set is updated instead of passing every
updated value to the network. The approach of the improved
rule match algorithm saves comparisons and accesses to the
node memories as the nodes get only pointers to the values in
the nodes, which are relevant for their comparison. However,
the Rete algorithm passes all changed values in the tuples to
the network, which then has to check first if the incoming
value is relevant for the node and then if the node condition
is satisfied by the new arriving value. Thus, the usage of the
Rete algorithm is inefficient for the usage in the presented
driving system, as it gathers the data frequent from the car,
the driver and the environment, which would lead to a frequent recomputation of the alpha and beta nodes.
6
Conclusion & Further Work
In this paper an improved rule match algorithm was introduced, which is used in an energy-efficiency and safety relevant driving system to detect broken driving rules and deviations from the typical driving behaviour. On the basis of the
detected broken driving rules and deviations from the typical
driving behaviour, the driving system creates recommendations, which help eliminating bad driving habits which
caused the breaking of the driving rule or the deviation from
the typical driving behaviour.
The rule match algorithm introduced in this paper is based on
the Rete algorithm. However, the major difference is saving
a pointer to the relevant data within the node memory instead
of saving the data itself, which satisfied the node condition.
This change of the algorithm is the main reason why the performance of the improved rule match algorithm is better in
the evaluated environment. In Rete the matching of a frequent
changing data set involves a frequent recalculation of the alpha and beta nodes, while the improved rule match algorithm
is able to access the updated data using the pointer stored in
the nodes.
The improved rule match algorithm has to be evaluated also
against the Treat algorithm, as the Treat algorithm does not
use beta nodes to improve the performance. Furthermore,
since the Recommendations Inference Engine decides if a
recommendation should be shown to the driver or not, it has
to be figured out, which algorithm fits the needs of the Recommendations Inference Engine. As the development of the
driving system is still in progress, a user friendly concept has
to be worked out, according to the usability guidelines for human-machine interfaces for in-vehicle systems [22] and the
recommendations have to be displayed in a noticeable way
without distracting the driver.
References
[1] Mehmet Yay, Elektromobilität, Lang, Peter GmbH, 2010
[2] German Statistical Office, Verkehr – Verkehrsunfälle,
Wiesbaden, Germany, 2011
[3] Fan Xiaoqiu, Ji Jinzhang, Zhang Guoqiang, Impact of
Driving Behavior on the traffic safety of Highway Intersection, Third ICMTSA, 2011
[4] N. Haworth, M. Symmons, Driving to Reduce Fuel Consumption and Improve Road Safety, Australian Transport
Council; 2001
[5] H. Helms, U. Lambrecht, J. Hanusch, Energieeffizienz im
Verkehr; In Energieeffizient, Publisher Martin Pehnt;
Springer; 2010
[6] J. Van Mierlo, G. Maggetto, E. Van de Burgwal, R.
Gense, Driving style and traffic measures – influence on
vehicle emissions and fuel consumption, In Proceedings
Institution of Mechanical Engineers Vol. 218 Part D: Automobile Engineering, 2004
[7] Kia Website, Eco Driving System,
http://kia-buzz.com/?p=252, Last visit: 24.09.2014
[8] Tsippy Lotan, Tomer Toledo, An In-Vehicle Data Recorder for Evaluation of Driving Behavior and Safety,
Transportation Research Board of the National Academies, 2006
[9] T. Bär, R. Kohlhaas, J. Zöllner, K.-U. Scholl, Anticipatory
Driving Assistance for Energy Efficient Driving, ISTS,
Vienna; 2011
[10] Corcoba Magana, V; Munoz Organero, M, Artemisa,
Using an Android device as an Eco-Driving assistant,
Cyber Journals: Multidisciplinary Journals in Science and
Technology, Journal of Selected Areas in Mechatronics(JMTC), June Edition, 2011
[11] Reiner Onken, DAISY, an Adaptive, Knowledge-based
Driver Monitoring and Warning System, Vehicle Navigation & Information Systems Conference Proceedings,
1994
[12] H. Singh; Mr. J.S Bhatia; Mrs. Jasbir Kaur, Eye Tracking
based Driver Fatigue Monitoring and Warning System,
IICPE, India, 2010
[13] Arun Sahayadhas, Kenneth Sundaraj, Murugappan
Murugappen, Detecting Driver Drowsiness Based on Sensors: A Review, Sensors Vol.12 Issue 12, Basel, Switzerland, 2012
[14] H. Shin, S. Jung, J. Kim, W. Chung, Real Time Car
Driver’s Condition Monitoring System, IEEE SENSORS
2010 Conf., 2010
127
[15] M. Kumar, M. Weippert, R. Vilbrandt, S. Kreuzfeld, Regina Stoll, Fuzzy Evaluation of Heart Rate Signals for
Mental Stress Assessment, IEEE Transactions on Fuzzy
Systems, Vol. 15, No. 5, 2007
[16] Peter J. Brockwell, Richard A. Davis, Introduction to
Time Series and Forecasting, Springer, 2002
[17] Emre Yay, Natividad Martínez Madrid, SEEDrive: An
Adaptive and Rule Based Driving System, 9th Internation
Conference on Intelligent Environments, 2013
[18] Charles L. Forgy, Rete: A Fast Algorithm for the Many
Pattern/Many Object Pattern Match Problem, Expert
Systems, 1990
[19] Daniel P. Miranker, TREAT: A Better Match Algorithm
for AI Production Systems, AAAI'87 Proceedings, 1987
[20] Pandurang Nayak, Anoop Gupta, Paul Rosenbloom,
Comparison of the Rete and Treat Production Matchers
for Soar (A Summary), AAAI, Pages 693-698, 1988
[21] Daniel P. Miranker, David A. Brant, Bernie Lofasso, David Gadbois, On the Performance of Lazy Matching in
Production Systems,AAAI-90 Proceedings, 1990
[22] European Commission, Commission Recommendation
on safe and efficient in-vehicle information and communication systems: update of the European Statement of
Principles on human machine interface, Official Journal
of the European; 2007
XVI Jornadas de ARCA
Author Index
Agell, Nuria
Angulo, Cecilio
´
´
Alvarez
de La Concepci´
on, Miguel Angel
´
Alvarez-Garc´ıa, Juan Antonio
Bernab´e-S´
anchez, Iv´
an
Calm, Remei
Campos Lucena, Mar´ıa Soledad
Corcoba Maga˜
na, V´ıctor
Cuadrado-Cordero, Ismael
Cueto, Alfonso
D´ıaz-S´
anchez, Daniel
Falomir, Zoe
Fern´
andez, Dami´
an
Fern´
andez-Montes, Alejandro
Gonz´
alez-Abril, Luis
Lillo-Fantova, Luc´ıa
Mart´ınez Madrid, Natividad
Mast, Vivien
Museros, Lled´
o
Mu˜
noz, Diego
Mu˜
noz-Organero, Mario
M´
arquez V´
azquez, Jos´e Manuel
Ortega, Juan Antonio
Raya, Crist´
obal
Ruiz, Francisco J.
Salord, Llu´ıs
Sam`
a, Albert
Sanz D´ıaz, M Teresa
Sanz, Ismael
Soria Morillo, Luis Miguel
S´
anchez Venzal´
a, Jos´e Ignacio
S´
anchez-Hern´
andez, Germ´
an
T´ellez, Ricardo A.
Vale, Daniel
Vehi, Josep
Velasco Morente, Francisco
Velasco, Manel
Yay, Emre
Y˜
niguez Ovando, Roc´ıo
128
99, 117
73, 85, 105
1
1, 55, 111
5
119
11, 47
49
111
55
5
57, 69
67
67, 115
57, 67, 69, 79, 91
73
121
57
57, 69, 79
85
5, 49
91
67, 91, 111, 115, 121
99
99
105
99
11, 47
69, 79
1, 55, 111
115
117
73
57
119
11, 47, 91
73, 85, 105
121
11, 47