Facultad de Ingeniería
URI permanente para esta comunidadhttps://hdl.handle.net/11182/27
Examinar
Examinando Facultad de Ingeniería por Título
Mostrando 1 - 20 de 96
- Resultados por página
- Opciones de ordenación
Ítem Adaptación de un proceso de desarrollo de software basado en buenas prácticas(Universidad Autónoma de Manizales, 2014) Britto Montoya, Jaime Andrés; Hurtado Gil, Sandra VictoriaEste proyecto presenta la construcción de un proceso de desarrollo de software para el área de sistemas de Comfamiliar Risaralda mediante la selección de las mejores prácticas obtenidas de las metodologías de Scrum, XP e ICONIX, tomando como marco de referencia al modelo de mejora y evaluación Capability maturity model integration para desarrollo (CMMI-DEV 1.3). Para este fin se evaluó el proceso actual, comparándolo con las prácticas ágiles provenientes de las metodologías, seleccionando las de mayor posibilidad de mejora, luego se diseñó el nuevo proceso usando estas prácticas seleccionadas. El nuevo proceso propuesto fue aplicado en una prueba piloto dentro de la institución y luego fue evaluado con respecto a CMMI como se hizo inicialmente para las metodologías ágiles mencionadas. Se obtuvo finalmente una matriz de comparación frente a CMMI en el cual se puede evaluar cualquier método o proceso de desarrollo, y un proceso estructurado de software formalmente definido mediante la herramienta Eclipse Process Framework. Se observa una mejora en el cumplimiento de prácticas frente a CMMI del 25% con respecto al proceso anterior aunque se encuentran dificultades al aplicar prácticas relacionadas con documentación extensiva y toma de medidasÍtem Análisis de expresión diferencial de genes de respuesta inmune asociados a procesos inflamatorios en enfermedad de Alzheimer (EA)(Universidad Autónoma de Manizales, 2017) Cardona Londoño, Kelly Yojanna; Naranjo Galvis, Carlos AndrésLa enfermedad de Alzheimer (EA) es el trastorno neurodegenerativo más común en todo el mundo. El mecanismo fisiopatológico de la EA sigue sin estar claro; sin embargo, estudios recientes han demostrado que la expresión diferencial y la presencia de polimorfismos genéticos en genes involucrados en la respuesta inflamatoria puede desencadenar el inicio y la progresión de la neurodegeneración en la enfermedad. Este estudio tuvo como objetivo explorar la patogénesis molecular de la inflamación relacionada con la EA mediante la secuenciación de transcriptoma y la genotipificación de polimorfismos de nucleótido simple (SNP) en pacientes con EA y controles. Para ello, se llevó a cabo la secuenciación del transcriptoma de 5 casos de EA y 10 controles, utilizando secuenciación de nueva generación con el panel RNA Ion AmpliSeq. Posteriormente, se identificaron los genes diferencialmente expresados (DEG) con el paquete DESeq2 de R/Bioconductor, sobre los cuales se realizaron análisis de enriquecimiento funcional por ontologías de genes (GO), y vías metabólicas a través de la Enciclopedia de genes y genomas de Kyoto (KEGG), así como la identificación de redes de interacción proteína–proteína con la base de datos STRING. Adicionalmente, se llevó a cabo la genotipificación de 15 SNP en 7 genes candidatos en 30 casos de EA y 160 controles mediante la reacción en cadena de polimerasa en tiempo real (RT-PCR). Como resultado se tiene que un total de 94 genes sobre expresados y 147 subexpresados fueron identificados. Los genes sobre expresados se encontraron enriquecidos en ontologías relacionadas con las vías de señalización de la familia interferón (INF) mientras que los genes sub expresados se asociaron principalmente con procesos ciclo celular. En relación con el mapeo de las rutas metabólicas KEGG, son de destacar las vías de señalización de JAK / STAT, quimiocinas, factor de necrosis tumoral-alfa (TNF-α), interleucina 17 (IL-17), MAP quinasas (MAPK) y la vía de EA. Respecto a la genotipificación, los SNP rs7747909 y 10484879 del gen IL-17A, rs1000610 del gen TNF-α y rs2075650 del gen TOMM40 fueron identificados como factor de riesgo para la EA. Este estudio proporcionó no solo una imagen completa de la expresión genética en EA, sino también los procesos clave asociados con la patología que son importantes para la regulación de la neuroinflamación, contribuyendo a tener una comprensión mucho mejor desde la perspectiva genética para mejorar los mecanismos actuales para tratar la EA en Colombia.Ítem Análisis de respuesta en frecuencia de un dispositivo piezo-actuado para la identificación de variaciones estructurales de su soporte(Universidad Autónoma de Manizales, 2019) Barco Castaño, Daniel Ricardo; Tinoco Navarro, Héctor Andrés; Peña Bustos, Fabio MarceloEste trabajo presenta el desarrollo y evaluación de un dispositivo piezo actuado que tiene como objetivo una aplicación de monitoreo estructural basada en las condiciones de vibración del mismo. Para esto, se describió un proceso de diseño que consideró las condiciones estáticas parametrizadas por medio de un análisis de elementos finitos (FEA). Adicional a esto, un análisis armónico (1 kHz hasta 50 kHz) fue llevado a cabo por FEA para la evaluación dinámica del piezo dispositivo. Los resultados muestran la sensibilidad de este en todo el espectro de frecuencia frente a los cambios de la interface de acoplamiento (elemento cónico y diente); sin embargo, los cambios elásticos (módulo de Young) del sustrato solo perturbaron un intervalo de frecuencia reducido. En ese intervalo, el análisis evidenció que cuando el sustrato incrementa su módulo de Young, los desplazamientos del dispositivo son mayores, esto es debido a que el sustrato limita el movimiento en el punto de anclaje cuando es más rígido. Para verificar las simulaciones, experimentos dinámicos fueron propuestos con sustratos de diferentes materiales (Aluminio, bronce y acero). Los resultados revelaron los efectos elásticos del sustrato sobre la condición de vibración del dispositivo, ya que en los intervalos de frecuencia definidos entre 0 y 100 Hz; 3 kHz y 11 kHz; las velocidades modificaron la forma de vibrar del dispositivo lo cual significa un cambio de su estado vibratorio. Este resultado concluye que el dispositivo puede ser usado como instrumento de monitoreo estructural, ya que demostró la capacidad de capturar los cambios elásticos en su condición vibratoria.Ítem Aplicación de la estrategia gel para el diseño, implementación y puesta en funcionamiento de servicios para la Casa Delegada del Departamento del Quindío(Universidad Autónoma de Manizales, 2019) Castañeda Garzón, Uberney; Castaño Dávila, Angela Catalina; Giraldo Velásquez, Fáber DaniloLa Gobernación del Quindío cuenta con una entidad adscrita llamada Casa Delegada del Quindío (CDQ) en Bogotá que se encarga de promover el turismo, representación gubernamental y gestión de proyectos para el Quindío. Esta no cuenta con un mecanismo, como un portal web que permita sistematizar la información que emana de los atractivos turísticos y de los servicios que brinda la CDQ. Es por ello que surge la necesidad de desarrollar el portal web para la CDQ con el fin de poner a disposición de la comunidad quindiana y el público en general información de interés y servicios que pueden efectuar a través de este mecanismo de tal forma que pueda ser agradable e intuitivo según las características de usabilidad propuestas en los lineamientos de GEL (Gobierno en línea). El desarrollo del portal se realizó bajo investigación aplicada fundamentada en la construcción de un desarrollo tecnológico sostenida en un diseño de campo entre los años 2016 y 2018. Asimismo, para su ejecución se empleó la metodología propuesta por el doctor Granollers en su tesis doctoral llamada MPIU+a para la construcción de portales interactivos basados en las experiencias de los usuarios en cada una de las etapas de la ingeniería del software. Durante la construcción se desarrollaron evaluaciones con usuarios usando los prototipos como herramientas de interacción y al finalizar el trabajo se hizo una evaluación heurística que permitió identificar la relación del uso del modelo planteado y los lineamientos GEL (Gobierno en línea), así como una evaluación de interacción al 10% del público objetivo, evidenciándose un grado de satisfacción de un 85%Ítem Aplicación de técnicas de minería de datos en atención primaria en salud para el análisis de riesgo en mujeres gestantes de la población Manizaleña atendida por Asbasalud en el período comprendido entre 2010 y 2012(Universidad Autónoma de Manizales, 2016) Navarro Palacio, Luisa Fernanda; Gallego Vargas, Julián Andrés; Castillo Ossa, Luis FernandoLa mortalidad neonatal y de las madres en la etapa de gestación, así como en los días posteriores y los defectos congénitos de los neonatos, son algunos de los grandes problemas a los que se enfrentan las estrategias en salud pública. El nacimiento pre término es una de las principales causas de muerte neonatal (CLAP/SMR - OPS/OMS, 2010). Las mujeres que han tenido un nacimiento pre término antes de las 35 semanas tienen un riesgo de 10 a 15% de repetir otro nacimiento pre término. Ese riesgo puede llegar a aumentar en un 40% después de 2 y a un 60% después de 3 nacimientos pre término. Para dar respuesta a estos problemas, la Atención Primaria en Salud debe corregir y avanzar en sus enfoques, desarrollar nuevos conocimientos y tecnologías sobre mejores prácticas que deben ser incorporadas para aumentar su efectividad. Además, es fundamental conocer cuáles son las causas principales de estos hechos, basándose en experiencias anteriores, para así poder centrar sus esfuerzos en la disminución de estos acontecimientos. Dentro de las condiciones que generan riesgos se encuentran las condiciones sociales a las que está sometida la población gestante, así como los cuadros clínicos que pueden aparecer, debido al riesgo natural al que toda mujer esta propensa por el simple hecho de ser gestante; por esta razón es fundamental definir cuáles son las variables más representativas y la forma en que cada una de ellas se relaciona, para poder entender y contextualizar los riesgos a los que está sometida esta población. Una de las formas de llevar a cabo este trabajo es a través de métodos estadísticos como el análisis multivariado, en donde se cuente con variables Categóricas y Numéricas con las cuales se puedan agrupar y clasificar los datos; datos que han sido manipulados con anterioridad, teniendo en cuenta el proceso de descubrimiento de conocimiento en Bases de Datos (KDD), por sus siglas en ingles. Este trabajo se lleva a cabo mediante la metodología CRISP-DM y su implementación mediante la Suite de Microsoft SQL Server 2008 R2, en la cual no solo se encuentra el repositorio de datos de los años 2010, 2011 y 2012 de Asbasalud, sino que además, posee herramientas para extraer, limpiar, cargar, procesar y analizar los datos, esta última mediante técnicas de minería de datos.Ítem Aplicación para generar portales web en Sharepoint online en base a una plantilla predefinida que permita consultar en tiempo real información de proyectos gestionados en la plataforma CA PPM(Universidad Autónoma de Manizales, 2018) Carvajal, Jose Ubaldo; Ríos Pineda, Carlos EduardoEn el presente trabajo se ilustra la implementación de una aplicación para Microsoft SharePoint Online (en la nube) que permite la generación automática de portales web y la consulta de información en tiempo real, a partir de los datos disponibles en proyectos gestionados con la plataforma CA PPM. Objetivo: desarrollar una aplicación para generar portales web en SharePoint Online basados en una plantilla predefinida que permita consultar información de proyectos gestionados en la plataforma CA PPM en tiempo real y de forma unidireccional. Materiales y métodos: se aplicaron las metodologías ICONIX (para desarrollo de software), este proceso permitió cada una de las fases en el desarrollo de software (requerimientos, análisis, diseño, implementación y pruebas). Adicionalmente, se utilizó SCRUM para gestión de equipos. Resultados: Se desarrolló e implementó una aplicación para SharePoint Online que permite automatizar la creación de sitios web, partiendo de la información almacenada en proyectos gestionados con CA PPM. Como fruto de esta experiencia se documentó la metodología y el proceso general para su desarrollo. Conclusiones: desarrollar aplicaciones sobre Microsoft SharePoint Online, en lugar de hacerlo sobre SharePoint OnPremise aceleró los tiempos de desarrollo de funcionalidades, así como la localización y depuración de errores. En la versión de la aplicación para SharePoint OnPremise los desarrolladores requieren crear y configurar un ambiente SharePoint altamente especializado, lo cual consume tiempo y recursos. Para un ambiente de SharePoint en la nube, sólo es necesario disponer de un ambiente integrado de desarrollo como Microsoft Visual Studio y una suscripción a Office 365 de Microsoft.Ítem Una arquitectura empresarial fundamentada en TOGAF para el negocio de distribución de energía de la Central Hidroeléctrica de Caldas(Universidad Autónoma de Manizales, 2013) Valencia Sánchez, José Jahir; Linares, Luis EmilioLa actividad económica de las empresas prestadoras de servicios públicos domiciliarios de energía, se ve fuertemente vigilada por la regulación estatal, la cual busca asegurar la disponibilidad y calidad del servicio de energía, con el fin de que todos los consumidores puedan contar con el suministro eléctrico, a costos adecuados, y reduciendo al máximo el impacto ambiental. Debido a todos estos mecanismos regulatorios y a las necesidades cambiantes de los consumidores de los servicios públicos, las empresas prestadoras de servicios públicos, deben estar en un constante replanteamiento de sus estrategias, lo cual conlleva a que el modelo gerencial y todos los elementos alrededor de éste, permiten construir un lenguaje común con las personas, el cual facilita la alineación las acciones del día a día con el direccionamiento estratégico, la integración de diferentes iniciativas y el apalancamiento de las tecnologías de la información a las estrategias empresariales. Para ayudar a la empresa a afrontar esta problemática a mediados de los años 90 se introduce “Arquitectura Empresarial” el cual expone una definición basada en el panorama "general" de la empresa, cubriendo los procesos de negocio, las estrategias empresariales, los sistemas de información, datos e información y la infraestructura, para dar vía a la realización de la visión empresarial mediante el análisis, diseño e implementación progresiva y adaptativa de una arquitectura que mantenga una armonía entre los diferentes aspectos que dentro y fuera del negocio afectan la forma como se cumplen las metas estratégicas.Ítem Buenas prácticas de seguridad para sistemas ERP(Universidad Autónoma de Manizales, 2011) Acosta Castaño, Ramón Eduardo; Isaza, GustavoEn la actualidad los sistemas ERP son usados no solo por las grandes empresas sino que además las pequeñas y medianas, ellas han encontrado la importancia que tienen estos sistemas y las ventajas competitivas que pueden lograr con su uso e implementación. Los sistemas ERP bajo código libre, se han convertido en los favoritos para estas empresas, debido a la reducción de costos que representan y a la calidad que cada día se hace más notoria en el mundo. Sin embargo, si hay algo que la mayoría de las empresas temen frente a este tipo de sistemas y a los de código libre en general, es el tema de la seguridad. Esta propuesta busca identificar las debilidades de seguridad de estos sistemas a través del uso de metodologías y estándares probados y usados por comunidades internacionales, no solo en el ERP como tal sino además, en todo el entorno que se requiere para su instalación y administración. Una vez identificadas las debilidades se propondrán una serie de buenas prácticas que de manera general, aumenten la seguridad de los sistemas, éstas serán aplicadas sobre un ERP específico y validado sobre otro, de manera que se pueda demostrar la aplicabilidad de ellas. Además, se pondrán en conocimiento a las comunidades que aportan al crecimiento y desarrollo de los ERP algunas de las debilidades detectadas, con el fin de que solucionen estos problemas y los divulguen en toda la comunidad y así lograr un aporte al mejoramiento de estos sistemas. Finalmente, el análisis de los resultados obtenidos con la aplicación de las buenas prácticas, demostrara su eficacia, realizando la comparación entre los ERP antes y después de su implementaciónÍtem Búsqueda de patrones en el comportamiento de los visitantes de la plataforma “Oferto” de la cámara de comercio de Armenia y del Quindío, a través de la aplicación de minería web(Universidad Autónoma de Manizales, 2016) Angarita García, David Alberto; Muñoz Franco, Juan José; Hernández Cáceres, JavierEn la actualidad las organizaciones cuentan con información generada cada vez más rápido y de manera exponencial por el uso de las páginas web por parte de los usuarios. Dicha generación de información se debe a la publicación de sus productos y/o servicios en sus sitios web y la interacción de los usuarios con los mismos, es por esto que se vuelve necesario el análisis de dicha información con el objetivo de ser competitivo y obtener utilidades, usando como medio el mundo digital. Tal como afirma Baeza-Yates (2005) “la información de la web es finita pero el número de páginas web es infinito”, a partir de esta premisa es claro que se cuenta con información valiosa para la gestión de la Organización. Sin embargo, para que esta información pueda tener un impacto adecuado se debe realizar un proceso con las técnicas apropiadas, ya que la mayoría de veces la información importante no se encuentra a simple vista y si no es utilizada y explotada de la forma correcta o simplemente no se hacen las búsquedas adecuadas dentro de la misma, termina por convertirse en datos sin valor.Ítem Caracterización electrofisiológica de procesos cognitivos en el desarrollo de una tarea motora(Universidad Autónoma de Manizales, 2018) Giraldo Torres, Laura Rocío; Restrepo de Mejía, Francia; Segura Giraldo, BelarminoEn el transcurso de esta tesis, se presentará el desarrollo de una aplicación computacional que permite la caracterización y simulación del proceso cognitivo existente en una tarea motora simple; la fase de caracterización presenta los componentes de adquisición de señales mediante la sincronización de los equipos electromiógrafo y electroencefalógrafo, filtrado y procesamiento digital de éstas señales; en la fase de simulación, se presenta un módulo dentro de la aplicación computacional que permite analizar y simular las señales electrofisiológicas desde un enfoque de potencial de membrana, el cual abarca modelos establecidos para cargas eléctricas y potencial iónico de membrana. Adicionalmente, con el fin de evaluar la aplicación computacional desarrollada, se presenta una aplicación con 9 sujetos de investigación, la cual abarca desde la creación de los protocolos de estimulación motora hasta la caracterización de las ondas obtenidas en los potenciales relacionados a eventos motores. Se encuentra a través de la evaluación de la aplicación con los sujetos, que hay congruencia en las señales de los sujetos analizados y en las reportadas en la literatura, donde hay presencia de ondas antes, durante y después de realizar un movimiento voluntario siguiendo un protocolo de estimulación. Se tiene la onda NS o Late BP, que indica la Activación de la Corteza Motora Primaria M1, la Premotor Positivity ó PMP, que indica la organización de la secuencia motora, las ondas P100 y N100 o MP, que indican la retroalimentación del movimiento, y la Desincronización Relacionada a Eventos DRE, que indica la activación del sistema de neuronas espejo mediante la supresión del ritmo Mu.Ítem Comparación de estrategias de navegación colaborativa para robótica móvil(Universidad Autónoma de Manizales, 2015) Martínez Puerta, John Jairo; Vallejo Jiménez, Margarita María; Avilés S., Oscar Fernando; Flórez Hurtado, Rubén DaríoEn el presente trabajo se comparan dos estrategias de navegación colaborativas, enmarcadas en el contexto de grupos de múltiples robots móviles, aplicados a la búsqueda de rutas óptimas entre un punto de partida y un punto de destino cuya ubicación es desconocida. Se describen las tendencias de la robótica móvil colaborativa y los enfoques de Inteligencia Artificial aplicados, haciendo énfasis en los sistemas de múltiples agentes y las metaheurísticas comúnmente usadas en este ámbito. Posteriormente se hace un análisis de las arquitecturas y se propone una arquitectura inspirada en un sistema nervioso biológico. Finalmente se hace un estudio estadístico que contrasta una estrategia tipo enjambre con una estrategia tipo multiagente, a partir de simulaciones de sistemas multi-robot, con el fin de determinar cuál de estas presenta mejor desempeño para ejecución de tareas colectivas, en ambientes simulados aplicadas a sistemas multi-robots.Ítem Construcción de un data Mart para el cálculo de indicadores de calidad del servicio en el área de gestión operativa de la CHEC S.A. E.S.P.(Universidad Autónoma de Manizales, 2018) Trujillo Pulecio, Oscar Mauricio; Vélez Bedoya, Jairo IvánLa acelerada evolución organizacional a nivel mundial, ha traído consigo que se deban almacenar y manejar grandes volúmenes de datos, por lo que cada vez se hace más costoso mantenerlos en los sistemas de información transaccionales. Para el caso de las empresas del sector público, los entes reguladores han elevado los estándares de calidad del servicio buscando que las compensaciones a los usuarios finales sean cada vez menores y que los incentivos brindados por el gobierno sean justificados con datos y hechos históricos. Estas exigencias se hacen efectivas a través de indicadores y reportes que demuestren la gestión realizada. Pero el procesamiento de estos datos no puede interrumpir la operación normal de las empresas, por lo que se requiere tener sistemas alternos que permitan procesar grandes volúmenes de datos con tiempos de respuesta bajos que además apoyen la toma de decisiones a nivel organizacional. Es por estos que los almacenes de datos han jugado un papel importante en los últimos años, pues permiten que la información, requerida para el cálculo de indicadores y la toma de decisiones empresariales, esté consolidada en un mismo repositorio de acuerdo a los datos recolectados en los diferentes sistemas transaccionales. En este trabajo se expone la creación de un Data Mart para realizar el cálculo de los indicadores de calidad del servicio en el área de Gestión Operativa de la CHEC, el cual surge por las necesidades regulatorias y por la preocupación frente al impacto reflejado en los ingresos y/o egresos por concepto del desempeño de la calidad del servicio de energía. Se utilizará como marco de trabajo la metodología de Ralph Kimball con apoyo, en algunas etapas, de la metodología HEFESTO propuesta por el Ing. Ricardo Darío Bernabeu, la cual permite obtener resultados más tempranos al aplicar buenas prácticas descritas en esta última metodología.Ítem Construcción de un software CRM para instituciones de educación superior siguiendo el proceso AGILISO(Universidad Autónoma de Manizales, 2021) Londoño Marin, Valentina; Meza Martinez, Jorge IvánLa Universidad Autónoma de Manizales, mediante su búsqueda continua de la calidad ha implementado varios proyectos que persiguen el bienestar y satisfacción de la comunidad universitaria. Por lo que bien podría decirse que tiene un enfoque de orientación al cliente. No obstante, aunque existen varios sistemas de información que dan soporte a funciones administrativas y académicas, la universidad no cuenta con un sistema que le permita gestionar las relaciones con sus clientes actuales y potenciales. Esto genera que en algunas ocasiones lleguen a “contactar a los que no son y no contacten a los que son”. Partiendo de las necesidades de la Universidad Autónoma de Manizales y el análisis de las variables generales que aplican a todas las universidades desde el sistema SNIES, se desarrolló un prototipo de software CRM, que permita a instituciones de educación superior gestionar de manera eficiente las relaciones con sus clientes, mediante la centralización de su información, el seguimiento de interacciones, y la creación de campañas con perfiles segmentados. Todo esto siguiendo el proceso de desarrollo AGILISO.Ítem Control automático adaptativo por medio del ciclo MAPE-K, en el Internet de las cosas, usando el System On Chip ESP32(Universidad Autónoma de Manizales, 2019) Álvarez Gaspar, César Augusto; Rodríguez Sotelo, José Luis; Flórez Hurtado, Rubén DaríoEl Internet de las Cosas (IoT) es una revoluci on tecnol ogica, en la que se interconectan personas, procesos, datos y objetos inanimados, usando el Internet como puente entre ellos. Estas interacciones ofrecen nuevas posibilidades para mejorar la calidad de vida de las personas al igual manera que mejorar algunos procesos industriales. Esta tesis de Maestr a aport o al desarrollo de aplicaciones basadas en el Internet de las Cosas, al proporcionar un Objeto de Internet que capaz de realizar control autom atico adaptativo por medio del ciclo Monitorear, Analizar, Plani car, Ejecutar y Conocer (MAPE-K). Este Objeto de Internet se desarrollo por medio del System On Chip ESP32, de la empresa Espressif. El Objeto de Internet se probo en sistemas electr onicos Lineales e Invariantes en el Tiempo (LTI). El sistema desarrollado mostr o ser capaz de realizar el control de estos y adaptarse a cambios en su din amica interna. Durante el desarrollo de esta tesis se investig o en las areas del control autom atico, sistemas embebidos, inteligencia arti cial y desarrollo de Aplicaciones WebÍtem Convolutional Neural Networks for Image Steganalysis in the Spatial Domain(Universidad Autónoma de Manizales, 2021) Tabares Soto, Reinel; Ramos Pollán, Raúl; Isaza Echeverri, GustavoEsta tesis doctoral muestra los resultados obtenidos al aplicar Redes Neuronales Convolucionales (CNNs) para el estegoanálisis de imágenes digitales en el dominio espacial. La esteganografía consiste en ocultar mensajes dentro de un objeto conocido como portador para establecer un canal de comunicación encubierto para que el acto de comunicación pase desapercibido para los observadores que tienen acceso a ese canal. Steganalysis se dedica a detectar mensajes ocultos mediante esteganografía; estos mensajes pueden estar implícitos en diferentes tipos de medios, como imágenes digitales, archivos de video, archivos de audio o texto sin formato. Desde 2014, los investigadores se han interesado especialmente en aplicar técnicas de Deep Learning (DL) para lograr resultados que superen los métodos tradicionales de Machine Learning (ML).Ítem Cosechador de energía piezo-inductivo de baja potencia para vibraciones de baja frecuencia(Universidad Autónoma de Manizales, 2019) Vargas Sánchez, Carlos Alberto; Tinoco Navarro, Héctor AndrésEste proyecto consiste en el desarrollo y evaluación de un cosechador de energía con el fin de encontrar valores óptimos de parámetros mecánicos y eléctricos que maximicen la potencia eléctrica cosechada en bajas frecuencias (entre 0 y 15 Hz) y baja potencia (orden de los mW) . Un dispositivo cosechador de energía fue desarrollado a partir de un Voice Coil Motor (VCM) adaptado con transductores inductivos y piezoeléctricos. Mediante ensayos experimentales de vibraciones, el cosechador de energía fue acondicionado a diferentes escenarios mecánicos y eléctricos que fueron valorados mediante las resonancias mecánicas determinadas en el espectro eléctrico medido en el dispositivo. Diferentes longitudes de vigas y masas fueron añadidas para pruebas dinámicas realizadas en el intervalo de frecuencia anteriormente indicado. Elementos magnéticos fueron adheridos como fuentes externas de variación forzada para estimular las resonancias en frecuencias no correspondientes a las propias del sistema cosechador. Esto con el fin de encontrar valores de maximización de cosecha de energía cuanto la fuente vibratoria estimulaba el dispositivo. A partir de un diseño optimo determinado, la carga eléctrica del circuito cosechador fue minimizada obteniendo el mayor beneficio eléctrico, como se expone en los resultados del trabajo.Ítem Definición de un proceso de desarrollo de software con control de calidad del producto en una empresa Pyme de la región(Universidad Autónoma de Manizales, 2014) Holguín Barrera, Jhon Alexander; Hurtado Gil, Sandra VictoriaActualmente la industria del software tiene grandes retos para la construcción y mantenimiento del software en términos de calidad, costos y tiempo. Para esto se han generado diversidad de metodologías, procesos, normas y modelos que permiten afrontar estos retos, pero es complejo que la aplicación de solo un proceso logre cumplir con esto, ya que existe gran variedad de organizaciones productoras de software con diferentes propósitos, clientes y mercados. Es por esto que se puede decir que la clave del éxito está en la correcta elección de las metodologías más apropiadas y su correcta integración al contexto organizacional. Este estudio contiene la integración de varias metodologías y normas para el proceso de desarrollo de software de una PYME (pequeña y mediana empresa), más específicamente se incorporó el marco de trabajo SCRUM catalogado como ágil y altamente aceptado a nivel de la industria, junto con el modelo de mejora de procesos PSP (personal software process) el cual también es reconocido por los resultados logrados en las organizaciones que lo aplican. Además se adicionó al proceso la evaluación del producto, a través de una norma de calidad de producto reconocida a nivel mundial como lo es la ISO 25000. La integración de estos dos modelos y la norma en el proceso pretende mejorar la calidad y productividad de la PYMEÍtem Definición de un proceso para el desarrollo de proyectos de software en modalidad unipersonal combinando ISO/IEC 29110: 2014 y procesos ágiles(Universidad Autónoma de Manizales, 2018) Erazo Acosta, Pedro David; Hurtado Gil, Sandra VictoriaLa globalización ha impactado directamente en todos los sectores industriales, obligando a las organizaciones a modernizar la forma de obtención, almacenamiento y acceso a información en los procesos administrativos, operativos y estratégicos, buscando constantemente la competitividad a partir de la toma de decisiones estratégicas oportunas basadas en la inmediatez, ubicuidad y accesibilidad de la información. En este contexto los desarrolladores de software deben generar productos que cumplan con los requerimientos de las organizaciones, procurando entregas en el menor tiempo posible a la vez, que sean diseñados y desarrollados con una visión de calidad, escalabilidad y crecimiento de la organización o sector para el cual está concebido el desarrollo. En consecuencia, se requiere que los desarrolladores posean mayor control sobre sus recursos, tiempo de desarrollo, costo y calidad del producto. Las posibilidades de contratación para actividades de desarrollo de software son amplias, desde casas de software, cuyas actividades se realizan cumpliendo procesos de desarrollo rigurosamente, hasta desarrolladores de software que llevan a cabo desarrollos unipersonales presencial o en modalidad de teletrabajo, que por lo general no adoptan protocolos que garanticen la calidad de los productos generados en sus diferentes etapas, así como el cumplimiento en las entregas planificadas. El presente documento propone la definición de un proceso para el desarrollo de software en modalidad unipersonal, que constituya en sí mismo un proceso de desarrollo ágil que concibe desde sus fases los requisitos establecidos en el estándar ISO/IEC 29110:2014, brindando una oportunidad de fortalecimiento a la actividad de desarrollo de software unipersonal. Palabras claves: Software, Calidad de Software, Sistemas de Software, Ingeniería de Software, Desarrollo ágil de software.Ítem Desarrollo de un biopolímero celulósico a partir de pergamino de café reforzado con nanopartículas de sílice y sus potenciales aplicaciones(Universidad Autónoma de Manizales, 2022) Henao Rodríguez, Juan Esteban; Londoño Calderón, César Leandro; Trujillo de los Ríos, Efraín EduardoLa contaminación por plásticos es actualmente una de las principales problemáticas ambientales en el mundo. Debido a su naturaleza no biodegradable estos se acumulan en el ambiente y provocan serias alteraciones en los ecosistemas. Por tanto, es preciso desarrollar materiales alternativos a los plásticos tradicionales, y es aquí donde los residuos agroindustriales cobran una notoria importancia. Este tipo de residuos son generados como resultado del cultivo y procesamiento de los bienes producidos en actividades agropecuarias, y por lo general suelen ser desperdiciados, desaprovechados, y carecen de valor comercial. En ese sentido, se planteó el desarrollo de un biopolímero a partir del pergamino de café, mediante la optimización de los procesos de: (a) la extracción química de las microfibras de celulosa de este material, (b) la incorporación de dichas fibras en matrices de almidón de yuca, (c) la incorporación de nanopartículas de sílice obtenidas de la cascarilla del arroz en el polímero previamente mencionado, y (d) la caracterización morfológica, estructural, óptica, mecánica, y de propiedades de barrera de los materiales obtenidos y cada una de las fases del proceso. De ello se obtuvo que el pergamino debe ser tratado en tres hidrólisis: (1) HNO3 ac. 5%(v/v), (2) NaOH ac. 3%(m/v), y (3) NaClO:CH3COOH:H2O al (2:2:96)%m, durante 120 min, 45 min y 30 min respectivamente, a temperatura y agitación constante de 80°C y 1000 r/min, a calentamiento por reflujo. Las películas desarrolladas mostraron un aumento considerable en el esfuerzo máximo y la elongación a la ruptura soportados con la incorporación de las microfibras de celulosa (173% y 259%, respectivamente) y de las nanopartículas de sílice (94% y 120%, respectivamente). Finalmente, los materiales desarrollados a lo largo del trabajo fueron analizados y caracterizados por técnicas SEM, XRD, TGA, UV-Vis, UTM y FTIR, en los que se verificó la evolución del material a través del tiempo.Ítem Desarrollo de un objeto de aprendizaje de factorización con herramientas de dominio público, para estudiantes de modalidad a distancia(Universidad Autónoma de Manizales, 2014) Robledo Giraldo, Juan Sebastián; Prado Brand, María de PilarEl objetivo del proyecto fue la creación de un Objeto de Aprendizaje de factorización, desarrollado con herramientas de dominio público para estudiantes de matemáticas de primer semestre de un programa a distancia. El OA se desarrolló mediante una metodología híbrida de desarrollo de software, resultante de la combinación de MESOVA o Metodología de desarrollo de software para objetos virtuales de aprendizaje (Parra, 2011) e ISE o Ingeniería de Software Educativo (Galvis, 1992) que se complementó con instrumentos provenientes de otras fuentes. La metodología híbrida resultante comprende los siguientes momentos: Fase I Análisis y concepción del OA cuyo resultado fue la recolección de requerimientos y los diagramas UML. Fase II: Diseño y desarrollo modular evolutivo cuyo producto fue el primer prototipo. Fase III: Integración y despliegue del OA en la plataforma. Fase IV Evaluación de la calidad del OA por parte de expertos externos. Fase V Prueba operacional en donde un grupo de estudiantes trabajaron con el OA y dieron sus opiniones. Con la metodología implementada en este proyecto fue posible desarrollar un Objeto de aprendizaje para el aprendizaje procedimental de la factorización mediante la ejercitación, que potencialmente puede ser utilizado para estudiantes de educación media y de educación superior, y en diferentes contextos educativos tales como educación a distancia y presencial