martes, 4 de mayo de 2010

Simulación en camara lenta y criminología

En la sesión de apertura del ultimo caso del curso el tema a desarrollar tiene que ver con lo mostrado en los siguientes estímulos:
Al tratar de identificar las relaciones entre los estímulos anteriores y a su vez la relación que existe con la simulación de sistemas surgieron las ideas o palabras claves que se presentan en la siguiente imagen.

Dado que esta sesión es la que culmina el curso de simulación se decidió llevar a cabo un investigación en distintas áreas e investigar los siguientes aspectos:

Metas:

1. Investigar el área de criminología, criminalística y arqueología.
2. Problemáticas principales.  
3. ¿Se aplica simulación?, si se aplica, ¿Donde y como la aplican?, si no la aplican, ¿Como se podría aplicar simulación?
4. ¿Qué o quienes son los lideres actuales en esas áreas de investigación?

Criminología

En la sociedad siempre se busca el estudio del crimen y los criminales y esto le concierne a la criminología, buscando la delincuencia juvenil y las causas del delito. Hasta llegar a la teoría de que la interrelaciones de las personas, grupos y la sociedad en la cual viven y funcionan son las principales causas de que se cometa un delito.

La criminología estudia al protagonista del delito y el resultado material de su conducta, realizando el examen integral de su personalidad, requisito indispensable para la justicia
penal.

La criminología es una ciencia muy nueva y de la cual podemos ver que se basa en dos áreas de búsquedas, que son distintas pero están relacionadas entre si, la primera esta el estudio de la naturaleza del delito dentro de la sociedad y la segunda es el estudio de los delincuentes desde un punto de vista psicológico. Ambas de estas teorías son mas descriptivas que analíticas.

Ahora como ramas mas importante de la criminología podemos mencionar:
Las investigaciones medicas, con importancia en la Medicina Legal
La Antropología, Psiquiatría, Biología hereditaria, de las llamadas Psicología medica y de la caracterología.

Es claro que es complicado hablar de simulación en el estudio de la criminología ya que lo que esta estudia es la mente o las conductas humanas y estos sistemas como sabemos son muy complejos e impredecibles.

Criminalística

La criminalística se encarga del estudio de las huellas materiales del delito, es decir,
de los indicios.

La criminalística y la medicina forense son dos disciplinas inseparables, que aportan valiosa información en los casos de muertes violentas y, consecuentemente, permiten su cabal esclarecimiento.

Supongamos que se encuentra a un hombre muerto, aparentemente asesinado. ¿Qué sucedió? ¿Quién es la víctima y quién es el victimario? ¿Cuándo ocurrieron los hechos? ¿Dónde ocurrieron? ¿Cómo? ¿Con qué y por qué se cometió?, son las preguntas de rigor. Si se consigue contestarlas, el crimen queda completamente esclarecido. Con frecuencia, la mitad de dichas interrogantes pueden contestarse de inmediato; otras veces, en cambio, el caso permanece insoluble porque una de ellas queda sin respuesta.

  • La primera pregunta, ¿qué sucedió?, es fundamental para el comienzo de la investigación, ya que a menudo depende de ella que la investigación pueda o no proseguir.
  • La interrogante ¿quién es la víctima?, suele ser difícil de contestar por la forma en que se haya producido la muerte o porque el homicida haya desfigurado el cadáver.
  • La respuesta a la ‘‘trivial’’ pregunta ¿cuándo sucedió?, requiere la participación de un perito médico forense, quien tomará en cuenta para responderla los siguientes datos: rigidez, enfriamiento, livideces y putrefacción.
  • El lugar del crimen, ¿dónde se cometió?, no siempre corresponde al lugar donde se encuentra el cadáver. Precisar el ‘‘lugar de los hechos’’ equivale, muy a menudo, a descubrir al culpable.
  • La contestación a la pregunta ¿cómo ocurrió?, frecuentemente supone también la investigación de las circunstancias más remotamente vinculadas al hecho. A este respecto, los indicios brindan por lo general la luz que ilumina el oscuro caso.
  • Los indicios originados por la actuación del victimario en el escenario del crimen, pueden ser tanto los producidos por él sobre las cosas que le rodean, como los producidos por las cosas sobre su persona. Aquí está claramente establecida la ‘‘ley del intercambio’’ de Edmond Locard.
  • ¿Con qué instrumento se ejecutó el hecho? La importancia de plantear esta cuestión es obvia. Aquí, de nueva cuenta, la participación del médico forense resulta necesaria.
  • ¿Por qué se cometió el hecho? A menudo la propia naturaleza del mismo da la respuesta, pero con igual frecuencia se necesita de mucho ingenio para descubrirla.

En párrafos anteriores hemos apuntado que para dar respuesta a algunas de las siete preguntas, es indispensable la participación del médico forense. Efectivamente, en la operación tanatológica denominada ‘‘levantamiento del cuerpo’’ deben participar activamente, ajustándose a sus respectivas áreas, tanto el experto en criminalística de campo como el perito médico forense, siendo esta operación tanatológica responsabilidad fundamental de este último.

La Criminalística moderna ya no solo depende del perito o el especialista que vaya a la escena de los hechos o hallazgo, sino ya depende de muchas ciencias auxiliares que antes no se tenían, entre las cuales se tiene a los peritos en huella genética y las condiciones técnicas actuales para poder determinar la absorción atómica y técnicas tan modernas utilizadas actualmente en las procuradurías conocidas como luminol, o la identificación de huellas con Cianoacrilato como manera moderna para pulpejos dactilares.

A diferencia de la criminología nos damos cuenta que la simulación podría ayudar a responder cada una de las preguntas que tienen que ser contestadas para solucionar un caso sobre un delito conocido.

Áreas para usar simulación:

Para responder la pregunta: ¿ Quién ?

La odontología forense es una especialidad que ofrece al proceso judicial penal una interpretación adecuada de los indicios dentales encontrados en el lugar del crimen. En la mayoría de los casos, esto supone el empleo de las historias clínicas dentales, en particular los odontogramas, para identificar a la víctima de un crimen.
La estomatología forense, ayuda a determinar sexo, edad y grupo racial. Como disciplina orientadora puede ayudar a establecer ocupación, situación socioeconómica y lugar de origen
Con base en el estudio de restos óseos, el Antropólogo Forense puede identificar el sexo, estimar la edad, determinar la estatura, la afinidad racial y características propias de cada individuo (señas particulares), lo que va a conformar su identidad.
Por lo tanto, cuando se trata de identificar un cadáver, como primer paso en su intervención, el antropólogo realiza un estudio consistente en:
- Lateralización (identificación de piezas, sólo en restos óseos).
- Reconocimiento externo para la búsqueda de señas particulares (fracturas, intervenciones quirúrgicas, deformaciones óseas congénitas, etc.)
- Estudio dental (aplicando técnicas similares a las empleadas en odontología).
- Identificación de sexo.
- Estimación de la edad.
- Determinación de la estatura.
Para la identificación de una persona ya sea un agresor o una víctima es claro que tener una imagen de rostro y cuerpo puede ayudar a una identificación rápida.

Podría realizarse una simulación interactiva de rostros y cuerpos de seres humanos en las que la imagen final sea el resultado y los datos aproximados de entrada podrían ser edad, estatura, complexión, etc, para el cuerpo y se puedan modificar rasgos particulares de acuerdo a modificar rasgos particulares de la cara.






Para las preguntas: ¿ Que sucedió y como ocurrió ?

Para responder a estas preguntas es necesario un análisis detallado de la escena del crimen.

La escena del crimen es, como su nombre indica, el lugar que el asesino ha elegido para matar a su víctima. Las escenas pueden ser varias si el asesino ha usado varios lugares desde que atrapa su víctima hasta que la deja. Puede atraparla en un sitio, torturarla en un segundo, matarla en un tercero y trasladarla a un cuarto para abandonarla allí (Jiménez, 2006). Existen varias tipologías de escenas del crimen en función del criterio que usemos para clasificarlas.
En primer lugar, siguiendo a Turvey (2008), podemos establecer una tipología de localización de la escena del crimen, atendiendo al ambiente en el que se encuentra, así tendríamos:
Escena de interior: Las que se producen en el interior de una estructura como casas, apartamentos, edificios, naves...
Escenas de vehículos: Las que se producen en el interior de vehículos de transportes tales como coches, camiones, barcos, trenes...
Escenas de exterior: Las que se producen a campo abierto en parques, bosques, desiertos...
Escenas bajo agua: Las que se producen en el medio acuático como pantanos, ríos, pozos, mar...
En la investigación resulta primordial una escena muy concreta del crimen, que es la escena donde se encuentra el cadáver, ésta es una escena que puede aportar datos muy valiosos para la investigación tanto a nivel de indicios forenses, como para el propio criminal profiling. Turvey aconseja visitar esta escena para establecer relaciones espaciales dentro de la propia escena como con el resto de escenas del crimen que puedan existir. Más adelante veremos qué tipo de cuestiones debe plantearse el profiler sobre ésta y otras escenas.
Cuando la policía llega al lugar del crimen, lo primero que haces es una observación general de la situación, fijando dicha observación por medio de fotografías o vídeos de todos los lugares de la escena. A partir de aquí se debe usar todo el tiempo que el investigador necesite para prestar a atención a todo aquello que se considere relevante. Un aspecto importante en la inspección técnica policial es el tiempo, el examen de la escena del crimen debe hacerse de la forma más precoz que sea posible.

Como un modo explicativo de como sucedieron los hechos, para saber que circunstancias descartar y cuales son las más probables sería posible realizar una simulación de como sucedieron los hechos, todos los aspectos involucrados y la información recabada a partir de todos los indicios.



¿ Con que instrumento se ejecutó el hecho?










Realidad virtual

Una de las ramas más estudiadas es la realidad virtual. Esta se caracteriza por permitir al usuario "sentir" ciertos aspectos del ambiente virtual.
Las plataformas de movimiento para simuladores y travesías simuladas, los guantes con retroalimentación de fuerza, los dérmatoesqueletos y mayordomos son formas de retroalimentación de fuerza.

  • Plataformas de Movimiento
    La plataforma de movimiento fue originalmente diseñada para usarse en simuladores de vuelo para entrenar pilotos. Una plataforma es fijada a un conjunto de brazos hidráulicos. De acuerdo al cambio del movimiento del despliegue visual, la plataforma se inclina y se mueve en una trayectoria sincronizada para dar al usuario un "sentimiento" de que en realidad está volando. Sin embargo, esta plataforma tiene serias limitaciones en su rango de movimiento. Si las pistas visuales del usuario son que el avión esta boca abajo, la hidráulica de la plataforma no puede simular esto. Sin embargo, este puede usualmente dar las sensaciones al oído medio que correspondan a la escena visual, haciendo la simulación mas realista. Para ejemplos de movimiento de plataformas ver http://www.vetl.edu/Equipment/motion.html o http://ccad.uiowa.edu-/media/still/index.html.
  • Guantes Para la interacción con pequeños objetos en un mundo virtual, el usuario puede usar uno de varios guantes diseñados para dar retroalimentación sobre las características del objeto. Esto se puede lograr a través de pistones neumáticos los cuales están montados sobre la palma del guante, así como en Rutgers Master II [8] (ver http://www.caip.rutgers.edu~dgomez/rm2.html). Cuando un objeto virtual es colocado en la mano virtual, la mano verdadera del usuario puede realmente cerrarse alrededor del objeto. Cuando los dedos encontraran resistencia con el objeto en la realidad, la presión en los pistones se aumenta, dando la sensación de la resistencia del objeto virtual.
  • Dérmatoesqueletos
    Los dérmatoesqueletos también son empleados para simular la resistencia de objetos en un mundo virtual. Un dérmatoesqueleto es básicamente un brazo robótico amarrado a una persona. En la Universidad de Utah, los investigadores han desarrollado un brazo robótico el cual tiene 10 grados de libertad (para ver una fotografía, visita http://www.cs.utah.edu/~jmh/sda-master-tom.gif). El robot continuamente actualiza la fuerza a cada una de sus diez articulaciones, haciendo parecer que el brazo de 50 libras se vea que no pesa en lo absoluto. "No obstante, cuando el operador toca algo, las fuerzas virtuales se convierten en fuerzas reales que se sienten a través del dérmatoesqueleto" [10]. Esto haría que el brazo del operador se pare cuando pegue o toque con una pared virtual o sienta el peso de un objeto virtual.
  • Mayordomos
    El mayordomo es un robot que básicamente se entromete en el camino cuando intentas moverte a través de un objeto. Si el usuario extiende su mano para tocar una pared, un escritorio, o cualquier otro objeto virtual, el robot mayordomo pondrá un objeto real en el lugar donde el objeto virtual supuestamente está. Esta técnica esta actualmente siendo investigada en la Universidad de Tokyo por Susumu Tachi [18]. El mayordomo con el cual se esta trabajando "proporciona una impedancia mecánica del ambiente, esto es inercia, viscosidad y rigidez" [18]. El mayor inconveniente del robot mayordomo es que solamente puede presenciar estas propiedades para un sólo punto a la vez. El robot mayordomo bajo desarrollo puede dar la impresión de rigidez y viscosidad, pero no puede presentar la información necesitada por un humano para conocer como se siente el objeto. La temperatura y la textura son totalmente desconocidos al usuario.


Textura

Cualquier intento de modelar la textura de caras enfrenta tremendos retos debido a la manera como el sistema haptico funciona. Hay varios tipos de nervios los cuales sirven para diferentes funciones, incluyendo: sensores de temperatura, sensores de presión, sensores de presión de variación rápida, sensores para detectar la fuerza ejercida por músculos y sensores para detectar el movimiento del cabello sobre la piel. Todos estos factores humanos deben de ser tomados en consideración cuando se intenta desarrollar una interface táctil humano-máquina.

Factores Humanos en Ambientes Virtuales

Kay Stanney [13] ha escrito una crítica excelente de las áreas que aún necesitan ser investigadas para ser de los ambientes virtuales un lugar seguro para trabajar. Estos incluyen factores de salud tales como "vértigo por el resplandor" el cual puede inducir un ataque, daño auditorio y del oído interno causado por el audio de alto volumen, movimientos prolongados repetitivos los cuales causan heridas por el sobreuso (por ejemplo, el síndrome del túnel carpiano) y daños de la cabeza, del cuello o de la espina vertebral debido al peso o a la posición de los HMDs . Los factores de seguridad también necesitan ser considerados. Por ejemplo, cuando la visión de un usuario está restringida por un HMD, es probable que el usuario se tropiece al caminar sobre cables u otros objetos reales. También, ¿qué tan seguro es que el usuario esté libre de daño cuando el sistema falla? Las manos y los brazos pudieran ser pinchados o sobre extendidos si un dispositivo de retroalimentación haptica falla; el usuario pudiera ser desorientado o dañado si la computadora falla y repentinamente manda al usuario a la realidad, interrumpiendo el sentido de "presencia".

Simulación en prevención de desastres naturales

Simulación para representar una solución de un modelo matemático.
Simulación en evolución de sistemas climáticos
Simulación en sistemas biológicos para entender reproducción de bacterias, interacción entre enzimas, etc.

miércoles, 28 de abril de 2010

Simulación en sistemas de producción

En la sesión de apertura del caso 13 el tema a desarrollar tiene que ver con lo mostrado en los siguientes estímulos:
Al tratar de identificar las relaciones entre los estímulos anteriores y a su vez la relación que existe con la simulación de sistemas surgieron las ideas o palabras claves que se presentan en la siguiente imagen.


En base a las ideas aportadas se determinó investigar sobre las siguientes metas.

Metas:
  1. Pasos a seguir en una planeación.
  2. Modelado y simulación de lineas de producción
  3. Herramientas existentes para simular lineas de producción.
  4. Aplicaciones
A continuación se presenta la información encontrada para cumplir con las metas.

Planeación

La planeación de producción es el conjunto de planes sistemáticos y acciones encaminadas a dirigir la producción, considerando los factores, cuanto, cuando, donde y a que costo. La plantación de la producción es la labor que establece limites o niveles para las operaciones de fabricación en el futuro.


Sistema de planeación.
Para establecer la planeación de la producción en una empresa, es necesario un sistema que debe aprovechar los insumos de entrada y procesarlos en forma adecuada, para optimizar el producto resultante. El sistema de plantación es una actividad integrativa que intenta elevar al máximo la eficiencia de una empresa.
Los datos necesarios para planear la producción son:
  1. Demanda: ¿Cuánto vamos a vender? ¿Cuando lo vamos a vender?
  2. Almacén: ¿Cuánto debemos tener en inventario?
  3. Producto:
  • Partes que lo componen.
  • Proceso de fabricación de cada parte y subensamble del ensamble.
  • Secuencia de operaciones.
  • Tiempo-tipo de producción.
  • Materiales necesarios.
  • Equipo y herramientas necesarias.
Pasos a seguir en una planeación
  1. Estar conscientes de las oportunidades.
  2. Establecer objetivos.
  3. Desarollo de premisas.
  4. Determinación de cursos alternativos.
  5. Evaluación de cursos alternativos.
  6. Seleccionar un curso.
  7. Formulación de planes derivados.
  8. Expresión numérica de los planes mediante la creación de presupuestos.
A continuación se describen mas a detalle:
  • El conocimiento de las oportunidades tanto en el ambiente externo como dentro de la organización, es el punto de partida real para la planificación. Es importante observar previamente todas las posibles oportunidades futuras y verlas con claridad y por completo. Se deben conocer los puntos fuertes y débiles, comprender que problemas se desean resolver y porqué, así como saber que se espera ganar.
  • El segundo paso es establecer objetivos generales y después para cada unidad de trabajo subordinada. Ésta se debe hacer tanto para el largo plazo como para el corto plazo. Los objetivos especifican los resultados esperados y señalan lo que se tiene que hacer en definitiva, a qué habrá de darse prioridad y qué tendrá que lograrse mediante la red de estrategias, políticas, procedimientos, reglas, presupuestos y programas. Los objetivos forman una jerarquía.
  • Un tercer paso lógico en la planificación es establecer, difundir y obtener consenso para utilizar premisas de planificación críticas, tales como pronósticos, políticas básicas aplicables y planes existentes de la compañía, son suposiciones sobre el medio ambiente en el cual se llevará a cabo el plan. El principio básico de las premisas de planificación es: cuanto más comprendan las personas encargadas de la misma y estén más de acuerdo en utilizar premisas de planificación consistentes, será más coordinada la planificación de la empresa. La elaboración de pronósticos es importante en la fijación de premisas. Las premisas están limitadas a suposiciones que son críticas o estratégicas, para un plan, es decir, aquellas que influyen más sobre su operación.
  • El cuarto paso en la planificación, es buscar y examinar cursos alternativos de acción, en especial aquellos que no se manifiestan claramente. Pocas veces existe un plan para el que no se tienen alternativas razonables y con frecuencia una alternativa no obvia resulta ser la mejor.
  • Después de buscar cursos alternativos y examinar sus puntos fuertes y débiles, el siguiente paso es evaluarlos, preponderando los que se ajusten a las premisas y las metas. Quizás un curso parezca ser el más rentable, pero requerirá de un gran desembolso de efectivo y tendrá un periodo de recuperación lento; tal vez parezca menos rentable, pero puede tener menos riesgo; otro quizás esté más acorde con los objetivos a largo plazo en la compañía.
  • Seguir un curso es el punto en el que se adopta el plan, el punto real de toma de decisiones. Ocasionalmente, el análisis y la evaluación de cursos alternativos da por resultado que se puedan decidir seguir varios cursos en lugar del mejor.
  • Cuando se toma la decisión, pocas veces la planificación está completa; por lo tanto se señala un séptimo paso. Se requieren planes derivados para respaldar el plan básico.
  • Después de tomar las decisiones y establecer los planes, el paso final para darles significado, es llevarlos a cabo convirtiéndolos en presupuestos.
Estos pasos fueron encontrados en www.mitecnnologico.com.
En la siguiente presentación se puede encontrar información valiosa para entender la planeación y otros aspectos en toma de decisiones en un sistema de producción.
Planeacion y Toma de Decisiones-1

2.1 Modelado de una línea de producción

La naturaleza del problema indica cuáles de los siguientes tipos de modelos es el más apropiado de acuerdo al tipo de sistema de producción.

Modelo Físico. Son modelos que derivan su utilidad de un cambio en la escala. Los patrones microscópicos pueden amplificarse para su investigación, y las enormes estructuras pueden hacerse a una escala más pequeña, hasta una magnitud que sea manipulable. Los problemas de flujo en una planta modelo se estudian fácilmente con las estructuras y máquinas hechas a una escala pequeña, haciendo cambios que no podrían duplicarse con partes reales debido al costo, confusión o inconveniencia. Necesariamente, algunos detalles se pierden en los modelos. En las réplicas físicas, ésta pérdida puede ser una ventaja, cuando la consideración clave, es un factor, tal como la distancia, pero puede hacer inútil un estudio si la influencia que predomina se desvirtúa en la construcción del modelo.
Modelo esquemático. Las gráficas de fluctuaciones en los precios, los diagramas simbólicos de las actividades, los mapas de rutas y las redes de eventos regulados, todos representan el mundo real en un formato dirigido y diagramático. Los aspectos gráficos son útiles para pronósticos de demostración. Algunos ejemplos que se encuentran comúnmente incluyen los diagramas de la organización, diagramas de flujo del proceso y gráficas de barras. Los símbolos sobre tales diagramas, pueden arreglarse fácilmente para investigar el efecto de la reorganización. Una experimentación semejante en el lugar real de trabajo podría ser dañino.
Modelo matemático. Las expresiones cuantitativas, es decir, los modelos más abstractos, generalmente son las más útiles. Cuando un modelo matemático puede construirse para representar en forma exacta la situación de un problema, suministra una poderosa arma para el estudio; es fácil de manipular, el efecto de las variables que interactúan se aprecia claramente y, sobre todo, es un modelo preciso. Por lo general, cualquier deficiencia debida al empleo de los modelos matemáticos se origina por algún error cometido en las suposiciones básicas y en las premisas sobre las cuales están basadas. En contraste con los otros tipos de modelos, es más difícil decidir lo que se va a emplear que cómo se va a emplear.
Expo Aplicacion


3. Herramientas para simular.


Liga a un curso de Simulación. En esta presentación mencionan que se enfocarán sobre todo en simulación de lineas de producción, también se hace mención a un paquete para hacer simulación el paquete ARENA.

Demostración en linea de ARENA
Información más completa de ARENA
PROMODEL


Herramientas para simulación:

  1. Procesos industriales:
2. Simulación basada en agentes:
3. Lenguajes para simulación
4. Herramientas de simulación visual
5. Librerías para simulación
6. Simulación de redes y sistemas en mallas(grids)
7. Sistemas de telecomunicación y redes

4. Aplicaciones

¿QUE VENTAJAS TIENEN DISEÑAR LOS SISTEMAS DE PRODUCCIÓN?
El diseño de sistemas de producción es algo esencial en la empresa, ya que maneja todos los departamentos de esta, así llevando un control de costos, control de inventarios, control de la producción, control de procesos, control de calidad.
Los diseños de producción deben utilizarse siempre, es decir, no solamente durante la implementación de los mismos, para luego destacarlos, ni archivarse en un estante para que acumulen polvo y se vuelvan obsoletos. Los costos del proceso de reingenieria son demasiado altos y los diseños demasiado valiosos.
Los diseños y los modelos de reingeniería se utilizan obviamente para respaldar los esfuerzos futuros en este campo. Si se implementa una iniciativa de calidad total, la compañía necesitara cambiar sus procesos sobre una base común cuando las mejoras se implanten. Como una medida de control, estas actividades deben desarrollarse siguiendo los métodos de reingeniería y toda la documentación debe actualizarse.
Los diseños contienen información que puede ser útil en la toma de decisiones operacionales habituales, en el entrenamiento y en el control del desempeño laboral.
¿QUE VISIÓN DEL FUTURO LES DA A LAS EMPRESAS LOS DISEÑOS DE SISTEMAS DE PRODUCCIÓN?
  • Le da la habilidad de que entrar al mercado junto con otras compañías.
  • Habilidad de los proveedores para ejercer una presión sobre los costos de los competidores el mercado.
  • La habilidad de los clientes para influir en los competidores, por ejemplo, si son sensibles a los precios, los clientes forzaran la competencia precios.
  • La habilidad de las alternativas para presionar al mercado.
  • Las actividades competitivas de las compañías más rivales.

miércoles, 14 de abril de 2010

Simulación con agentes

Los estímulos que llevan a desarrollar e investigar este tema y que fueron presentados en la clase de apertura del caso 11 son los siguientes: video 1, video 2, video 3 y video 4.
El diagrama desarrollado a partir de la lluvia de ideas es el siguiente

Las metas establecidas se describen a continuación:

Modelos basados en agentes (Agent-based models)

¿ Qué son los agentes ?


El termino agente describe un software de abstracción, una idea o un concepto. El concepto de agente proporciona una herramienta para describir una ente animado que es capaz de actuar con cierto grado de autonomía con el fin de realizar tareas.
Esta definición se extiende a seres humanos, animales, robots informatizados y softbots. Un agente se puede definir de acuerdo a su comportamiento y este a su vez se determina de acuerdo a reglas simples y básicas de interacción con el medio ambiente y con otros agentes.

¿Qué son los modelos basados en agentes?

Son modelos computacionales usados para simular las acciones e interacciones de agentes autónomos con el fin de evaluar su efecto sobre el sistema completo.
Estos modelos simulan las acciones e interacciones simultaneas de multiples agentes con el fin de recrear y predecir la aparición de fenómenos complejos. La idea clave es que reglas de comportamiento simples generan comportamientos complejos.

Las tres ideas centrales de los modelos basados en agentes son los agentes sociales como objetos, aparición y complejidad.

Los sistemas en los que interactuan pueden crear complejidad como en el mundo real. Los agentes son:
  • inteligentes y con propósitos.
  • están situados en el espacio tiempo. Su ubicación, comportamiento y respuesta están confinados en algoritmos. El modelador hace los supuestos pensamientos más relevantes y luego observa los fenómenos que surgen de las interacciones de los agentes. a veces se observa un equilibrio, en ocasiones se encuentra un patrón.
¿Cuando hacer simulación basada en agentes?

Cuando se quiere capturar el comportamiento de agentes individuales y sus interconexiones.
Cuando se quiere probar como los cambios en el comportamiento individual afectan a la aparición de comportamientos del sistema completo.
Cuando se quiere explicar la aparición de sistemas con alto grado de patrones.
Cuando se quieren identificar momentos en el tiempo en el que algunas intervenciones han desarrollado extremas consecuencias.

Inteligencia artificial

La inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados producen acciones o resultados que maximizan una medida de rendimiento determinada, lo cual implica tomar la mejor decisión, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado.
El conocimiento puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
Existen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. Los principales tipos de procesos son:

Farid Fleifel Tapia describe a la IA como: "la rama de la ciencia de la computación que estudia la resolución de problemas no algorítmicos mediante el uso de cualquier técnica de computación disponible, sin tener en cuenta la forma de razonamiento subyacente a los métodos que se apliquen para lograr esa resolución.
Para completar esa definición, algunas definiciones no tan formales emitidas por diferentes investigadores de la IA que consideran otros puntos de vista son:
  • La IA es el arte de crear maquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia. ( Kurzweil, 1990)
  • La IA es el estudio de cómo lograr que las computadoras realicen tareas que, por el momento, los humanos hacen mejor. (Rich, Knight, 1991).
  • La IA es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente. (Lugar y Stubblefied, 1993).
  • La IA es el campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales. (Schalkoff, 1990).
En la IA se puede observar dos enfoques diferentes:
  1. La IA concebida como el intento por desarrollar una tecnología capaz de proveer al ordenador capacidades de razonamiento similares a los de la inteligencia humana.
  2. La IA en su concepción como investigación relativa a los mecanismos de la inteligencia humana que se emplean en la simulación de validación de teorías.
Una descripción mas detallada puede encontrarse aquí.

Autómata celular

Son modelos matemáticos para sistemas dinámicos que evolucionan en pasos discretos. Se compone de una colección masiva de objetos básicos que interactúan localmente entre ellos.
Se puede describir a un autómata celular como un conjunto ordenado de objetos caracterizado por los siguientes componentes:
  • Una rejilla o cuadriculado de enteros (conjunto \mathbb{Z}) infinitamente extendida, y con dimensión d \in \mathbb{Z}^+. Cada celda de la cuadrícula se conoce como célula.
  • Cada célula puede tomar un valor en \mathbb{Z} a partir de un conjunto finito de estados k.
  • Cada célula, además, se caracteriza por su vecindad, un conjunto finito de células en las cercanías de la misma.
  • De acuerdo con esto, se aplica a todas las células de la cuadrícula una función de transición ( f ) que toma como argumentos los valores de la célula en cuestión y los valores de sus vecinos, y regresa el nuevo valor que la célula tendrá en la siguiente etapa de tiempo. Esta función f se aplica, como ya se dijo, de forma homogénea a todas las células, por cada paso discreto de tiempo.
Aprendizaje automático

Es una de las ramas de la inteligencia artificial y se encarga de desarrollar algoritmos que permita el aprendizaje de las computadoras. trata de crear programas capaces de generalizar comportamientos a partir de ejemplos. Se centra en el estudio de la complejidad computacional por lo que típicamente busca dar solución a problemas considerados como NP-duros.
Puede ser visto como un intento por automatizar el método científico.

Los diferentes algoritmos de aprendizaje automático se agrupan de acuerdo a su salida. Estos algoritmos son:

  • Aprendizaje supervisado. El algoritmo produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar (clasificar) una serie de vectores utilizando una entre varias categorías (clases). La base de conocimiento del sistema está formada por ejemplos de etiquetados anteriores.
  • Aprendizaje no supervisado. Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos ejemplos.
  • Aprendizaje por refuerzo.El algoritmo aprende observando el mundo que le rodea. Su información de entrada es el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus acciones.
  • Transducción. Similar al aprendizaje supervisado, pero no construye de forma explícita una función. Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de entrada, sus respectivas categorías y los ejemplos nuevos al sistema.
  • Aprendizaje multi-tarea. Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.

REPAST (Recoursive porous agent simulation toolkit)

Es una de las herramientas para simulación de agentes que esta disponible libremente. Toma muchoas conceptos del modelado de enjambres, parbadas, bancos dependiendo del caso.
Repast busca apoyar el desarrollo de modelos extremadamente flexibles de la vida los agentes sociales, pero no se limita a modelar las entidades sociales que viven solos.
En la pagina principal de repast dice:
"Our goal with Repast is to move beyond the representation of agents as discrete, self-contained entities in favor of a view of social actors as permeable, interleaved, and mutually defining; with cascading and recombinant motives. We intend to support the modeling of belief systems, agents, organizations, and institutions as recursive social constructions."
Repast 3 tiene una variedad de características incluyendo las siguientes:
  • Repast incluye una variedad de agente de plantillas y ejemplos. Sin embargo, la guía ofrece a los usuarios una flexibilidad total en cuanto a cómo especificar las propiedades y comportamientos de los agentes.
  • Repast está totalmente orientado a objetos.
  • Repast incluye un planificador de eventos discretos plenamente concurrente. Este programador es compatible tanto secuenciales y paralelos operaciones discretas evento.
  • Repast ofrece incorporado en los resultados de simulación de la tala y herramientas de representación gráfica.
  • Repast ha automatizado Monte Carlo marco de simulación.
  • Repast proporciona una gama de entornos de agente de dos dimensiones y visualizaciones.
  • Repast permite a los usuarios acceder de forma dinámica y modificar las propiedades de agente, ecuaciones de comportamiento de los agentes y propiedades del modelo en tiempo de ejecución.
  • Repast incluye librerías para algoritmos genéticos, redes neuronales, generación de números aleatorios, y matemáticas avanzadas.
  • Repast incluye funciones de sistemas de modelización dinámica.
  • Repast ha modelado harramientas de apoyo a redes sociales.
  • Repast ha integrado los sistemas de información geográfica (SIG) de apoyo.
  • Repast esta totalmente implementado en una variedad de lenguajes como Java y C #.
  • Repast modelos se pueden desarrollar en muchos lenguajes, incluyendo Java, C #, C++, Visual Basic.Net, Managed Lisp, Managed Prolog y Python scripting.
  • Repast está disponible en prácticamente todas las plataformas modernas, incluyendo Windows, Mac OS y Linux. La plataforma de apoyo incluye tanto los ordenadores personales y los grandes clusters de computadoras.
Se descargo repast y se ejecutaron los demos que están incluidos en la instalación.

  1. Se descaro repast 3, es decir, el archivo repast_3.0_installer.jar
  2. Se instaló en el sistema ubuntu mediante linea de comandos con la instrucción java -jar repast_3.0.installer.jar
  3. En el directorio "repast 3/repastj/ " se ejecuto la instrucción java -jar repastj.jar
  4. Abriendose la ventana principal de repast

















El ejemplo que se ejecuto es precisamente el marcado en la imagen, el llamado Heatbugs.




La siguiente imagen es de la ejecución marcado con los parámetros de la imagen a la derecha.


Otras imágenes sucesivas pero esta vez con modificando la constante de difusión de calor a 1.4 y el tamaño de la región de 100x100.























Otra corrida de la simulación.

























Mecánica estadística

Es la parte de la física que trata de determinar el comportamiento de un sistema formado por muchas partículas. La física estadística permite predecir el comportamiento termodinámico de sistemas macroscópicos a partir de consideraciones microscópicas de las partículas formantes, utilizando para ello herramientas estadísticas junto a leyes mecánicas.
La física estadística puede describir numerosos campos con una naturaleza estocástica (reacciones nucleares, sistemas biológicos, químicos, neurológicos, etc.).
En principio podríamos obtener toda la información necesaria sobre el comportamiento del sistema construyendo e integrando las ecuaciones del movimiento para todos los grados de libertad del sistema, sin embargo y debido al orden de magnitud del número de partículas en los sistemas macroscópicos (1025 partículas) tal enfoque es impracticable, ya que requeriría la resolución de un número increíblemente grande de ecuaciones diferenciales; no sólo eso, sino que introducir las condiciones iniciales de tal sistema sería imposible.

Entropía

El concepto de entropía fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley: "No es posible proceso alguno cuyo único resultado sea la transferencia de calor desde un cuerpo frío a otro más caliente". En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso. Vamos ahora a hablar de las tres acepciones más importantes de la palabra entropía.

Una explicacion más detallada de entropía se encuentra aquí.

miércoles, 24 de marzo de 2010

Simulación en análisis estructural: Simple y complejo


En la sesión de apertura se discutieron cuatro estímulos.
  • Estimulo 1. El puente imposible. Se muestra un roblema al querer construir un puente que tenga una altura de 200 pies y una longitud de 1500 pies, esto debido al gran transito de barcos por este lugar. El problema radica en encontrar el mejor diseño que cumpla con las características requeridas.
  • Estímulo 2. Se muestra la simulación resultante de Pontifex III. Pontifex es una serie de juegos desarrollados y publicados por Chronic logic donde Bridge Builder es el primero de la serie.
  • Estimulo 3. Se muestra un video en el que se diseña una pieza mecánica de acuerdo al material y forma. Y se analiza las características tales como resistencia, ductilidad, etc. También se muestran las distintas zonas de tensión al aplicar fuerzas en distintos puntos
  • Estimulo 4. Un video que muestra el gran colapso del enorme puente de Tacoma en 1938 en estados unidos. Enlace
Las oraciones y palabras claves mencionadas para la determinación de las metas a seguir durante el caso se muestran en la siguiente imagen

Después de la discusión se determinaron las siguientes metas:
  • Jugar en Pontifex o con CATIA.
  • Plantear conocimiento intuitivo de acuerdo al uso de la simulación.
  • Investigar
  • Hacer conclusiones
CATIA

A buscar jugar con CATIA me encontré con dificultades y no lo puede conseguir por ser un software comercial.
Encontré el siguiente texto que me parecio describe Catia de una forma muy acertada:
Catia (Computer aideen three dimensional interactive aplication) es un programa creado y comercializado por Dassault Systèmes, que es la ingeniería filial del grupo Dassault, un fabricante de aviones militares y civiles francés. Nació como un programa de diseño CAD, y actualmente se engloba dentro de la categoría de gestores del ciclo de vida del producto, o en inglés, Product Lifecycle Management (PLM). Eso quiere decir que engloba todas las herramientas necesarias desde la concepción del diseño, hasta el análisis, la simulación y presentación, la fabricación o producción y, mantenimiento de este.
Es un software escalable, eso quiere decir que consta de unos módulos básicos y se va ampliando en función de necesidades, y hacia unos módulos que pueden ser altamente específicos, para algún tipo de industrias, como el módulo de cálculos ergonómicos Human Builder, o módulos especiales para industrias dedicadas al diseño, de pieza metálica Sheetmetal Design, de moldes de inyección Mold Tooling Design, pasando por módulos de análisis de elementos finitos FEM Solid o FEM Surface, o módulos para el mecanizado NC Machine Tool Simulation.
Catia comenzó su gran expansión en el mercado sobre todo con la versión V4, aunque como sólo funcionaba en el sistema operativo
UNIX, quedaba muy restringido al ámbito industrial. Con su paso a la versión V5, y trabajando bajo casi todos los sistemas operativos conocidos, incluido Windows, ha significado su gran eclosión como software. Y de ese cambio de versión surge su nombre más conocido Catia V5, que además incluye dos contadores más. El primero es el número de release, que es donde se incluyen los cambios hechos de una versión a otra, se añaden funcionalidades, o se potencian algunos módulos básicos con herramientas de otros módulos más específicos, y este es el número que se menciona tras Catia V5, el R17 (Catia Versión 5 Release 17). Es este cambio de release, el que hace de Catia, un software en continua evolución, y con constantes mejoras que hacen que aumente su potencia día a día. Por último, existe un service pack, que se lanza para arreglar posibles problemas dentro de cada nueva release. Así queda la nomenclatura Catia V5 R17 SP4, Catia Versión 5 Release 17 Service PackCatia forma parte del grupo de software de más alta gama, por prestaciones, usabilidad, potencia y otras características, junto con Pro-Engineer o Unigraphics, aunque, como entrando en este tema, todo son opiniones, yo personalmente me quedo con Catia.
Pontifex

También tuve algunas dificultades con pontifex pero finalmente se solucionaron. Logré instalar Pontifex, tanto en Windows como en Ubuntu, y hacer distintas pruebas para lograr terminar el juego, al menos el Demo que fué la que se pudo descargar.
En seguida se muestran algunos de los puentes terminados asi como el análisis de esfuerzos en las estructuras ocasionado por el peso de la estructura y por el tren que lo esta cruzando. El color rojo es para mostrar que se esta aplicando una fuerza de compresión y de flexión, el color azul muestra fuerzas de tensión sobre el material.

figura 1

figura 2
Las siguientes dos figuras tienen una forma curva y eso les da mayor resistencia.
Se logra observar como la figura 4 a diferencia de la figura 3 tiene una mejor distribución de la fuerza sobre la estructura, esto es porque en la figura 3 los esfuerzos se manifiestan de manera más intensa en la parte alta media de la estructura a diferencia de la figura 4 donde los esfuerzos se distribuyen a lo largo del puente. También es importante mencionar que ambas tiene la misma longitud y están hechas de los mismos materiales, sin embargo el diseño de la figura 4 permitió que se realizara con una menor cantidad de material, es decir, es más económica. Esto es lo que con frecuencia se presenta en la vida real.

figura 3

figura 4

Conocimiento intuitivo
La forma adecuada a una estructura le da mejor resistencia.
Se tienen distintos tipos de esfuerzos en las estructuras:
  • Fuerzas que oprimen las vigas y
  • Fuerzas que las estiran
Para modelar los esfuerzos es necesario conocer el comportamiento de cada unidad básica de la estructura.
Para modelar o simular estos puentes usaron un análisis de las interacciones de cada pieza con sus vecinos.
Entre las fuerzas principales asociadas a cada estructura se encuentra el peso de la misma así como la fuerza externa determinada por el peso del ferrocarril que cambia de posición mientras atraviesa el puente.

En lo que respecta al uso de CATIA se puede decir que para análizar los esfuerzos tuvieron que hacer un discretización de la pieza, analizando únicamente los puntos que identifican esa discretización de la pieza asi como las interacciones entre puntos vecinos y aplicar el conocimiento existente interacción entre un número finito de elementos para aproximar el comportamiento real de una pieza de esas características.
Método de los elementos finitos
Reseña histórica
El Método de Elementos Finitos (MEF) fue al principio desarrollado en 1943 por R. Courant, quien utilizó el método de Ritz de análisis numérico y minimización de las variables de cálculo para obtener soluciones aproximadas a un sistema de vibración. Poco después, un documento publicado en 1956 por M. J. Turner, R. W. Clough, H. C. Martin, y L. J. Topp estableció una definición más amplia del análisis numérico [1] .
En la década de 1950 el cálculo de estructuras consistían en método iterativos que se realizaban de manera manual y eran bastante tediosos. Es la aparición de la computadora lo que permitió el resurgimiento del método de los desplazamientos.En los 60's cuando las aplicaciones prácticas de elementos finitos crecieron en tamaño, los requerimientos de tiempo de cálculo y memoria de los ordenadores creció. En ese punto el ahorro de tiempo es impensable y con ello el uso del método matricial se extiende a diferencia del MEF.
Sin embargo, se plantean grandes dificultades ante estructuras continuas (superficies y volúmenes) y con geometrías complejas. De ahí que sea precisamente dentro del campo aeroespacial donde comiencen a desarrollarse las nuevas técnicas del MEF. Dada su generalidad el método se amplió a otros campos no estructurales como la conducción de calor, la mecánica de fluidos, etc.
En los años 70 el MEF estaba limitado a caros ordenadores centrales. Se estudian nuevos tipos de tipos de elementos y se sientan las bases matemáticas rigurosas del método.
En la década de los 80, se establece el uso de pre y postprocesadores gráficos que realizan el mallado y la representación gráfica de los resultados.
En la actualidad, dentro del campo estructural, el MEF comparte protagonismo con el método matricial, siendo muchos los programas que mezclan el análisis por ambos métodos, debido sobre todo a la mayor necesidad de memoria que requiere el análisis por elementos finitos. Así se ha dejado la aplicación del MEF para el análisis de elementos continuos tipo losa o pantalla. El MEF ha desarrollado una increíble precisión. A día de hoy, los superordenadores son capaces de dar resultados exactos para todo tipo de parámetros.

Descripción
El MEF permite obtener una solución numérica aproximada sobre un cuerpo, estructura o dominio (medio continuo) —sobre el que están definidas ciertas ecuaciones diferenciales en forma débil o integral que caracterizan el comportamiento físico del problema— dividiéndolo en un número elevado de subdominios no-intersectantes entre sí denominados «elementos finitos». El conjunto de elementos finitos forma una partición del dominio también denominada discretización. Dentro de cada elemento se distinguen una serie de puntos representativos llamados «nodos». Dos nodos son adyacentes si pertenecen al mismo elemento finito; además, un nodo sobre la frontera de un elemento finito puede pertenecer a varios elementos. El conjunto de nodos considerando sus relaciones de adyacencia se llama «malla».
Los cálculos se realizan sobre una malla de puntos (llamados nodos), que sirven a su vez de base para discretización del dominio en elementos finitos. La generación de la malla se realiza usualmente con programas especiales llamados generadores de mallas, en una etapa previa a los cálculos que se denomina pre-proceso. De acuerdo con estas relaciones de adyacencia o conectividad se relaciona el valor de un conjunto de variables incógnitas definidas en cada nodo y denominadas grados de libertad. El conjunto de relaciones entre el valor de una determinada variable entre los nodos se puede escribir en forma de sistema de ecuaciones lineales (o linealizadas). La matriz de dicho sistema de ecuaciones se llama matriz de rigidez del sistema. El número de ecuaciones de dicho sistema es proporcional al número de nodos.
Típicamente el método de los elementos finitos se programa para calcular el campo de desplazamientos y, posteriormente, a través de relaciones cinemáticas y constitutivas las deformaciones y tensiones respectivamente, cuando se trata de un problema de mecánica de sólidos deformables o más generalmente un problema de mecánica de medios continuos.
El método de los elementos finitos es muy usado debido a su generalidad y a la facilidad de introducir dominios de cálculo complejos (en dos o tres dimensiones). Además el método es fácilmente adaptable a problemas de transmisión de calor, de mecánica de fluidos para calcular campos de velocidades y presiones (mecánica de fluidos computacional, CFD) o de campo electromagnético. Dada la imposibilidad práctica de encontrar la solución analítica de estos problemas, con frecuencia en la práctica ingenieril los métodos numéricos y, en particular, los elementos finitos, se convierten en la única alternativa práctica de cálculo.
Una importante propiedad del método es la convergencia; si se consideran particiones de elementos finitos sucesivamente más finas, la solución numérica calculada converge rápidamente hacia la solución exacta del sistema de ecuaciones.
Fuerzas que actúan sobre una estructura
La finalidad de simular estructuras es diseño y análisis de la estructura cuando se la aplican diferentes tipos de fuerzas.
¿ Que debe cumplir una estructura ?
  • Soportar una carga.
  • Soportar fuerzas exteriores.
  • Mantener la forma.
  • Proteger partes delicadas.
Las estructuras están constituidas de elementos estructurales. Cada elemento debe resistir distintos tipos de fuerzas.

Una estructura tiene que soportar su propio peso, el de las cargas que sujeta y algunos empujes exteriores, como el viento, las olas, etc. Los tres tipos de fuerzas más importantes que actúan sobre las estructuras son:
  • La fuerza de compresión: las columnas de un edificio soportan el peso del techo y de los pisos superiores. Estos elementos están sometidos a una fuerza que tiende a aplastarlos. Los elementos estructurales que soportan fuerzas de compresión se llaman soportes.
  • La fuerza de tracción: los cables de un puente colgante soportan unas fuerzas que tienden a estirarlos. Los elementos estructurales que soportan fuerzas de tracción se llaman tensores o tirantes.
  • La fuerza de flexión: un estante de un mueble soporta una fuerza que tiende a doblarlo. Los elementos estructurales que soportan fuerzas de flexión se llaman vigas o barras, las cuales están puestas en sentido horizontal.
Además de estas tres fuerzas, también pueden actuar en los elementos de una estructura dos fuerzas: la de torsión y cizallamiento.

  • La fuerza de torsión actúa sobre elementos que giran. La punta de un destornillador se puede deformar por la acción de esta fuerza.
  • Las fuerzas de cizallamiento actúan sobre elementos que soportan tracción y empuje, como los remaches de una gran estructura metálica. Por ejemplo los remaches en las montañas rusas.
Para que las estructuras mantengan su forma es necesario hacerlas resistentes. Una de la forma de aumentar la resistencia de un material es encontrar una forma adecuada en la cual la fuerza tenga una distribución de manera uniforme en todo el material.

A través de los años se han observado estructuras resistentes como lo son el arco, la cúpula, etc.
Las estructuras también las podemos reforzar con triángulos y barras. La triangulación permite ahorrar material además de aligerar el peso de la estructura.

¿Porque un triángulo y no un cuadrado o alguna otra forma?

Un cuadrado se puede deformar aún sin separar los puntos de unión de sus líneas. Sin embargo, para deformar un triángulo es necesario deformar uno de los lados o bien separar el punto de unión de dos de sus lados.