Título: PRIORIZAÇÃO ATRAVÉS DE UM SURVEY, DOS FATORES CRÍTICOS DE SUCESSO NO E-LEARNIG: UM ESTUDO BRASILEIRO
Defesa: 25 de fevereiro de 2022
Banca: : Dr. João Carlos Furtado (Orientador), Dr. Pietro Dolci Cunha (Unisc), Dr. Ismael Cristofer Baierle (Coorientador) e Álvaro Neuenfeldt Júnior (UFSM)
Resumo: O ensino está em constante evolução. A modalidade de ensino e-learning ganhou destaque maior quando as organizações educacionais foram obrigadas a mudar o paradigma de ensino, preferencialmente presencial em função da necessidade de isolamento da pandemia COVID-19. Até as escolas que sequer cogitavam esta modalidade tiveram de se adequar rapidamente ao novo modelo de ensino. Este estudo trata sobre a gestão do e-learning. Faz um levantamento bibliométrico sobre a produção científica da gestão no e-learning. Identifica 25 fatores críticos de sucesso (FCS), os submete em forma de survey a gestores de POLOS de todas as regiões brasileiras e após os prioriza. Foi identificado que uma das maiores preocupações devem ser a disponibilidade e facilidade de acesso à internet aos alunos e professores. Treinamento de pessoal, suporte aos professores e motivação dos alunos em estudar no e-learning em entre outros FCS.
Palavras-chave
E-learning. fatores críticos de sucesso. POLOS. priorização.
Título: INDÚSTRIA 4.0: INTELIGÊNCIA ARTIFICIAL APLICADA AO PROCESSO DE CURTIMENTO NA INDÚSTRIA DO COURO
Defesa: 26 de agosto de 2022
Banca: Dr. João Carlos Furtado (Orientador), Dra. Liane Mahlmann Kipper (Coorientadora), Dra. Rejane Frozza (Unisc) e Dr. Ismael Cristofer Baierle (FURG)
Resumo: Os conceitos da Indústria 4.0 propõem trazer transformação digital à indústria e uma das tecnologias habilitadoras é a inteligência artificial. Assim, o objetivo do presente trabalho é, através de técnicas de inteligência artificial e dados históricos, gerar e avaliar modelos de Machine Learning para a predição do rendimento do couro em curtumes. Para tal, foi utilizado a metodologia Design Science Research. Através de uma revisão sistemática da literatura identificou-se as relações das tecnologias habilitadoras da Indústria 4.0 com a indústria do couro, investigando os temas estratégicos, desafios e oportunidades com o auxílio do software SciMAT (Science Mapping Analysis Tool). Os principais desafios se encontram na integração entre máquinas, rastreabilidade do processo, qualidade dos dados, implementações de Internet das Coisas e simulação. As oportunidades identificadas relacionam-se com estudos voltados para inteligência artificial para detectar padrões de produção, otimizar processos, prever falhas e simular o processo produtivo. Desse modo, com a utilização do software Orange Data Mining, um artefato de predição do rendimento do couro foi desenvolvido e diferentes modelos de Machine Learning analisados. Os resultados mostram que o modelo de Machine Learning utilizando o algoritmo AdaBoost é capaz de realizar uma predição de rendimento do couro com o menor erro (Mean Absolute Error - MAE (0,042), Mean Squared Error - MSE (0,003), Root Mean Squared Error - RMSE (0,057) e Coeficiente de Determinação - R2 (0,331)) dentre os demais algoritmos investigados kNN, Tree, Random Forest, SVM, Gradient Boosting, Neural Network e Linear Regression. Os modelos Random Forest e Gradient Boosting mostraram-se equivalentes quanto à capacidade preditiva do rendimento do couro.
Palavras-chave:
Couro, curtume, indústria 4.0, inteligência artificial, aprendizado de máquina, algoritmos
Título: PROPOSTA DE MONITORAMENTO DE INDICADORES AMBIENTAIS A PARTIR DA ANÁLISE DE CICLO DE VIDA EM FRIGORÍFICO SUÍNO
Defesa: 19 de julho de 2022
Banca: Dra. Rosana de Cassia de Souza Schneider (Orientadora), Dra. Liane Mahlmann Kipper (Coorientadora), Dr. Ênio Leandro Machado (Unisc) e Dr. Miguel Afonso Sellitto (Unisinos)
Resumo: Os frigoríficos são considerados um dos ramos que mais impactam negativamente quando se trata de utilização de recursos naturais. No entanto, o atendimento a requisitos do mercado e aumento de demanda, geram uma necessidade de avaliar criticamente a utilização de recursos em cada etapa do processo, buscando práticas que auxiliam na minimização dos impactos. Este estudo explora os conceitos de sistemas de gestão da qualidade, modelos de monitoramento, indicadores meio de processos, inventário de ciclo de vida em frigoríficos. A metodologia utilizada foi exploratória com a realização de uma revisão sistemática da literatura e estudo de caso. As etapas metodológicas iniciam com um estudo de caso e uma revisão sistemática da literatura, fazendo um levantamento de indicadores e dados existentes no fluxo de referência do processo em um frigorífico de suínos, bem como avaliando se há práticas consideradas de produção mais limpa e oportunidades de redução dos impactos ambientais, melhorando o desempenho, eficiência e eficácia do processo. Os principais achados do nosso estudo reforçam a importância da ACV nos frigoríficos para promover a Produção Mais Limpa, de modo que as principais medidas sugeridas e/ou adotadas por diferentes autores incluem: a substituição de matérias-primas pela alimentação, com adoção de grãos, suplementos proteicos com menor impacto ambiental na composição da ração e mudanças nos processos visando uma melhor eficiência energética e otimização do consumo de água no processamento de carnes. Bem como os resultados da AICV permitiram identificar as categorias de impacto de maior relevância como sendo Depleção Abiótica (combustíveis fósseis), Aquecimento Global, Ecotoxicidade Marinha, Acidificação e Eutrofização. Os impactos detectados foram suporte para a definição de Indicadores de desempenho (Key Performance Indicators – KPIs) e Itens de verificação (Process Performance Indicators - PPIs) críticos nos aspectos ambientais, podendo estabelecer uma relação de causa e efeito com os objetivos estratégicos da organização.
Palavras-chave:
Avaliação de Ciclo de Vida. Frigorífico. Indicadores. Impactos ambientais.
Título: ANÁLISE DO USO DE ELETROENCEFALOGRAMA COM FOCO NA ATENÇÃO PARA O PROCESSO DE ENSINO E APRENDIZAGEM
Defesa: 30 de setembro de 2022
Banca: Dr. Leonel Pablo Carvalho Tedesco (Orientador), Dra. Rejane Frozza (Coorientadora), Dra. Liane Mahlmann Kipper (Unisc) e Dr. Ismael Cristofer Baierle (FURG)
Resumo: A constante revolução digital promove mudanças significativas na forma como o estudante interage com o conteúdo. Ambientes virtuais de aprendizagem personalizados são utilizados cada vez mais na atualidade, pois configuram-se como ferramentas que potencializam o aprendizado. Pesquisadores apontam a relevância da aplicabilidade das neurociências no campo da educação, nesse sentido, a personalização desses espaços pode ser feita mediante consideração das dimensões cognitivas do estudante. Para isso, é necessário realizar um mapeamento das atividades cerebrais, de modo que a interdependência entre aprendizado, tecnologia e organização mental do estudante possam ser compreendidos. Com base no exposto, o objetivo deste estudo consiste em analisar o uso de Eletroencefalografia (EEG) como dispositivo vestível para coleta de ondas cerebrais, a fim de avaliar a influência de atividades analógicas e digitais na função mental de atenção. Uma pesquisa de campo experimental com um grupo de três participantes voluntários idosos foi realizada para aquisição de sinais cerebrais durante a execução de um protocolo de experiência composto por atividade de relaxamento com os olhos fechados, leitura de um texto, novo momento de relaxamento e resposta de um questionário com perguntas relacionadas com o conteúdo do texto. O protocolo foi executado em duas etapas por cada indivíduo: i) formato digital, com o uso do computador e ii) formato analógico, com uso de papel e caneta. Os sinais coletados durante a execução das atividades foram processados, com a conversão dos sinais em componentes espectrais individuais com uso da Transformada Rápida de Fourier - Fast Fourier Transform (FFT) para obtenção de informações sobre o predomínio de frequências em cada atividade. Os dados de predomínio de frequência foram analisados com o teste estatístico de análise de variância Analysis Of Variance (ANOVA) seguido de pós-teste de Durbin-Conover. Como resultado foram identificadas diferenças nas frequências Delta, Beta 1, Beta 2 e Beta 3 que sugerem um recorte sobre como a atenção se apresenta nos ritmos cerebrais dos participantes da pesquisa avaliados durante a realização de atividades digitais e analógicas.
Palavras-chave:
Eletroencefalograma, Ondas Cerebrais, Atenção, Aprendizado, Ambientes Virtuais de Aprendizado, Internet das Coisas, Dispositivos Vestíveis.
Aluna: Aline Ramos da Silva
Título: FAROL: UMA FERRAMENTA DE APOIO A GESTÃO DA PRODUÇÃO CIENTÍFICA E TECNOLÓGICA
Defesa: 31 de maio de 2021
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Avelino Zorzo (PUCRS).
Resumo: Indicadores de medição de produção científica e tecnológica a nível internacional, regional e institucional é uma necessidade. Embora existam ferramentas de medição disponíveis no mercado, muitas se tornam inviáveis para instituições de baixo e médio porte, com orçamento limitado, devido ao elevado custo de aquisição, customização e manutenção. A Plataforma Lattes é um sistema de currículo virtual, que dispõe de informações acadêmicas e profissionais de indivíduos, mostrando-se como uma fonte extremamente rica de informações que podem revelar como têm sido realizadas as pesquisas científicas brasileiras nas diversas áreas do conhecimento. Explorar esses dados com o objetivo de obter uma visão detalhada de todo o repositório, pode proporcionar uma visão sistêmica de toda a cadeia de produção científica brasileira bem como a relação entre os pesquisadores. O objetivo desse trabalho foi desenvolver um software de apoio a gestão da produção científica e tecnológica utilizando os dados da Plataforma Lattes.
Palavras-chave:
Indicadores; Produção científica e tecnológica; Plataforma Lattes; Farol
Aluna: Gislene Cassia dos Santos Schwambach
Título: UM ESTUDO SOBRE FATORES QUE INFLUENCIAM A PERCEPÇÃO E ACEITAÇÃO DOS DISPOSITIVOS VESTÍVEIS BASEADO EM MACHINE LEARNING. UMA SURVEY ENTRE FUNCIONÁRIOS DE EMPRESAS BRASILEIRAS E EUROPEIAS.
Defesa: 08 de março de 2021
Banca: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Leonel Pablo Carvalho Tedesco (Co orientador), Profa. Dra. Liane Mahlmann Kipper (UNISC) e Prof. Dr. João Baptista dos Santos Martins (UFSM).
Resumo: Esta dissertação busca identificar os fatores que influenciam na intenção e no comportamento dos funcionários de empresas brasileiras e europeias para aceitação da tecnologia vestível dentro e fora do ambiente organizacional, baseado na teoria unificada de aceitação da UTAUT2. Nas últimas décadas a tecnologia vestível tem se tornado uma tendência a ser explorada e aplicada em diversos segmentos, tanto na área industrial, social, acadêmica, agropecuária e saúde, e está exercendo uma função essencial na vida das pessoas. No entanto, a preocupação com a gestão da privacidade dos dados coletados passa a ser um coeficiente a ser estudado com atenção, porque pode ser um fator para a rejeição ao uso da tecnologia. A partir de uma revisão na literatura, verificou-se que a aceitação ao uso da tecnologia está vinculada a múltiplas abordagens da teoria de aceitação com diferentes modelos. Para esta pesquisa foram desenvolvidos dois artigos, o primeiro fala da revisão sistemática na literatura com os temas motores que relacionam tecnologia vestível e trabalhadores, com o intuito de avaliar o potencial tecnológico nas organizações. O segundo artigo foi elaborado através de uma survey com funcionários da indústria nos países, da Alemanha, Bélgica, Brasil, Espanha, Itália e Turquia. O questionário foi respondido por 871 pessoas, dentre elas 680 homens e 191 mulheres. Através desta pesquisa foram estabelecidos os níveis de aceitação de tecnologias vestíveis no local de trabalho para a amostra estudada, que no Brasil é de 82,22% e na Europa é de 81,74%. Observou-se também que estes percentuais de aceitação caem no caso do estudo da aceitação da tecnologia fora do ambiente de trabalho, em um ambiente privado, sendo neste caso 79,68% para o Brasil e 66,21% para a Europa. Como última parte do estudo, verificou-se que estas porcentagens de aceitação fora do local de trabalho aumentam para 91,22% no Brasil e 84,02% na Europa quando há algum tipo de compensação para o usuário.
Palavras-chave:
Tecnologia vestível; Internet das Coisas; Teoria de aceitação; Privacidade.
Aluna: Janaína Lopes Dias
Título: ESTUDO DO USO DE MINERAÇÃO DE DADOS NO PROCESSO DE ROTEAMENTO DA COLETA DE RESÍDUOS SÓLIDOS URBANOS EM CIDADES DA REGIÃO SUL DO BRASIL.
Defesa: 24 de abril de 2021.
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Ênio Leandro Machado (UNISC), e Profa. Dra. Ruth Marlene Capomanes Santana (UFRGS).
Resumo: O gerenciamento adequado dos resíduos produzidos pelos municípios é um dos grandes desafios para os gestores públicos e para a sociedade, ainda que os processos relacionados às etapas de coleta, transporte e destinação dos resíduos sólidos vêm sendo revistos à medida que surgem e são aplicadas novas tecnologias na área, com a finalidade de alcançar a maior sustentabilidade ambiental, social e econômica para a sociedade. Este trabalho, através do apoio de técnicas e algoritmos de Mineração de Dados e Descoberta de Conhecimento em Bases de Dados (KDD), avalia padrões na coleta de resíduos sólidos urbanos em três municípios do estado do Rio Grande do Sul. Utilizando dados históricos acerca do peso de descarga de caminhões de coleta em unidades de transbordo, dados da rota de recolhimento e dados sociodemográficos e de clima, com o objetivo de predizer a quantidade de resíduos sólidos coletados em cada ponto. A partir do modelo predição, foram utilizadas métricas de avaliação, como Médio Absoluto (Mean Absolute Error - MAE), Erro Quadrático Médio (Root Mean Squared Error - RMSE) e Coeficiente de Determinação (R²) para avaliar a qualidade da base de dados e do modelo proposto. Os resultados mostram que o modelo do algoritmo Gradient Boosting apresentou melhor desempenho MAE (25,244), RMSE (87,667) e R² (0,642) na fase de treinamento e evidenciam o potencial de técnicas de mineração de dados para auxiliar na análise do gerenciamento de resíduos sólidos urbanos.
Palavras chave:
Mineração de dados; Gerenciamento de Resíduos Sólidos Urbanos; Coleta de Resíduos; Transformação digital; Sustentabilidade.
Aluno: João Victor Kothe
Título: INDÚSTRIAS SIMBIÓTICAS E ASSOCIAÇÕES DE EMPRESAS: UM ESTUDO NO SETOR CAFETEIRO.
Defesa: 26 de abril de 2021.
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Fáber Danilo Giraldo Velasquez (Co Orientador), Prof. Dr. Leonel Pablo Carvalho Tedesco (UNISC), Prof. Dr. Ismael Baierle ( UFSM).
Resumo:
Os resíduos gerados durante os processos de uma indústria de beneficiamento e comércio de alimentos são um motivo de preocupação por parte dos gestores. Alguns resíduos acarretam em riscos ambientais pelo fato de não poderem ser depositados em qualquer local, pois causam danos ao ambiente. Um conceito que visa auxiliar as indústrias a evitar os problemas causados pelos resíduos é a possibilidade de implantação de uma simbiose industrial. Este conceito sugere que o resíduo possa ser de uma indústria seja transformado em um subproduto que possa ser utilizado por uma outra indústria. Desta forma, uma indústria que é simbiótica à outra, passaria ter como matéria prima o aproveitamento do resíduo resultante da primeira empresa. Dentre as culturas que geram subprodutos, destaca-se o setor cafeeiro, por gerar diversos resíduos durante as diferentes etapas na qual o fruto é submetido no processo de beneficiamento. Os resíduos originados possuem composições variadas que possibilitam aplicações em diversos segmentos de indústria, e em contrapartida, estes rejeitos se despejados de maneira inadequada acabam gerando danos ambientais. Este trabalho tem como objetivo propor etapas de implementação de simbiose industrial do setor cafeeiro, com apoio de uma associação de empresas. A associação de empresas está situada na região cafeeira da Colômbia, que é o terceiro maior produtor de café do mudo. Visando suprir o objetivo, apresenta-se inicialmente uma abordagem da literatura na qual aborda os fatores críticos de sucesso que auxiliam na identificação de barreiras e fatores motivadores para realização da simbiose industrial. Após, apresenta-se um diagnóstico da realidade do cluster estudado e também 11 diretrizes que devem ser tomadas por parte de gestores com a finalidade de implementar a simbiose industrial.
Palavras-chave:
Indústrias Simbióticas; Associações industriais; Produção de Café; Subprodutos do café.
Aluno: Leonardo Bertolin Furstenau
Título: UM ESTUDO DAS RELAÇÕES ENTRE A PRODUÇÃO ENXUTA E A INDÚSTRIA 4.0 E POSSÍVEIS CAMINHOS PARA A TRANSFORMAÇÃO DIGITAL EM HEALTHCARE.
Defesa: 25 de fevereiro de 2021.
Banca: Prof. Dr. Leonel Pablo Carvalho Tedesco (Orientador), Prof. Dr. João Carlos Furtado, (UNISC), Prof. Dr. Tarcisio Abreu Saurim (UFRGS).
Resumo:
Os sistemas de produção enxutos têm mostrado resultados positivos na redução de desperdícios e agregação de valor em várias organizações. Além disso, novas tecnologias relacionadas à Indústria 4.0 surgiram nos últimos anos, como Sistemas Ciberfísicos, Internet das Coisas, Big Data, entre outros. O avanço destes conceitos encorajou a investigação da relação entre ambos os conceitos, de modo a identificar os resultados da união entre produção enxuta e tecnologias da indústria 4.0. A presente pesquisa procura apontar as relações e a falta de compreensão sobre vários aspectos entre a união desses conceitos, apresentando lacunas de pesquisa, especialmente na cadeia de suprimentos de saúde. Para tanto, foram realizados dois mapeamentos científicos utilizando software bibliométricos como SciMAT e VOSviewer. Os resultados apresentam a falta de compreensão frente a diversos desafios relacionados às tecnologias emergentes, bem com a relação de tais tecnologias com as técnicas de produção enxuta, principalmente em sistemas de saúde. Por fim, uma proposta de survey foi desenvolvido a fim de compreender as relações entre ambos os conceitos na performance operacional em sistemas de saúde.
Palavras-chave:
Mapeamento científico; Produção Enxuta; Indústria 4.0; Quarta Revolução Industrial; Saúde
Aluno: Luciano André Alff
Título: ESTRUTURA PARA A IMPLANTAÇÃO DE UMA FÁBRICA INTELIGENTE EM EMPRESAS COM FOCO NA CUSTOMIZAÇÃO EM MASSA DE PRODUTOS E FLUXO FLEXÍVEL.
Defesa: 01 de julho de 2021.
Banca: Prof. Dr. Leonel Pablo Carvalho Tedesco (Orientador), Profa. Dra. Liane Mahlmann Kipper (Co orientadora), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Alejandro German. Frank (UFRGS).
Resumo:
O objetivo deste trabalho é propor a implementação de um framework para implantação de tecnologias da Indústria 4.0 em uma metalúrgica do ramo de parafusos. Esse framework estabelece padronização para a implementação dessas tecnologias, tendo como objetivo a idealização de uma fábrica inteligente. Além disso, é proposto acoplar um modelo de simulação a um Manufacturing Execution System (MES) para sua validação, e teste de cenários. Embora a simulação não seja uma tecnologia recente, ela acoplada ao MES promove a obtenção de dados em tempo real, essencial para validação de cenários na cadeia de valor. A metodologia foi exploratória e descritiva, e para isto utilizou a revisão sistemática da literatura, o estudo de caso e a pesquisa-ação. Dos resultados encontrados destacam-se a implementação do alicerce do framework RAMI, a criação do modelo de simulação, bem como a demonstração da importância do sensoriamento e integração do chão de fábrica no desenvolvimento de fábricas inteligentes. O framework desenvolvido apresentou uma acurácia de -9,86 % na estimativa dos tempos de produção em relação ao real, e -0,58% em relação à estimativa do consumo de matéria prima no chão de fábrica.
Palavras-chave:
Indústria 4.0; Simulação, Mapeamento do Fluxo de Valor; Sistema de Execução da Manufatura; Customização em Massa de Produtos; Planejamento da Produção; Manufatura Inteligente.
Aluno: Maike Luis Kolling
Título: APLICAÇÃO DE ALGORITMOS DE MINERAÇÃO DE DADOS PARA BUSCA DE MODELOS DE PREVISÃO DE POSSÍVEIS CASOS DE ABANDONO NO TRATAMENTO DE TUBERCULOSE EM POPULAÇÕES PRIVADAS DE LIBERDADE.
Defesa: 27 de maio de 2021.
Banca: Prof. Dr. Leonel Pablo Carvalho Tedesco (Orientador), Profa. Dra. Rejane Frozza (UNISC), Profa. Dra. Lia Gonçalves Possuelo (UNISC), Prof. Dr. Sílvio César Cazella (UFCSPA).
Resumo:
Segundo o Ministério da Saúde Brasileiro (MS, 2021) a tuberculose (TB) é uma doença infectocontagiosa que registra aproximadamente 70 mil novos casos a cada ano no Brasil, levando à morte cerca de 4,5 mil pessoas por ano. Um grande número destas mortes se deve ao alto índice de abandono do tratamento, sendo um agravante os altos índices de abandono do tratamento nos casos incidentes em populações privadas de liberdade (PPLs). Diante deste problema e com a evolução dos algoritmos de mineração de dados, este trabalho propõe a aplicação das etapas do processo de KDD (Knowledge Discovery in Databases) na busca do melhor modelo computacional para previsão de casos de abandono do tratamento de TB de PPLs. Para a realização destas etapas foi utilizada a metodologia SEMMA (Sample, Explore, Modify, Model, Assess) através de técnicas de limpeza, pré-processamento, seleção de atributos e aplicação de algoritmos de mineração de dados sobre um conjunto de dados contendo os registros históricos de pacientes acometidos pela TB registrados no Sistema de Informação de Agravos de Notificação (SINAN). Os resultados obtidos foram avaliados de acordo com a sua acurácia, precisão, sensibilidade e especificidade. Sendo que o principal resultado foi apresentado pelo algoritmo Florestas Aleatórias, o qual obteve 97,07% de acurácia na previsão de abandono no tratamento de TB em PPLs. Para atingir o objetivo deste estudo, foi realizada a escrita de dois manuscritos, sendo o primeiro uma revisão sistemática da literatura, relacionada ao tema de mineração de dados na área da saúde e o segundo a descrição detalhada da aplicação da metodologia SEMMA adotada para a construção dos modelos de predição de abandono de tratamento de TB em PPLs.
Palavras-chave:
Mineração de Dados; Tuberculose; Abandono de tratamento; Metodologia/Método SEMMA.
Aluna: Michele Kremer Sott
Título: EVOLUÇÃO CIENTÍFICA E PROSPECÇÃO DELPHI DA AGRICULTURA DIGITAL NO SETOR CAFEEIRO: DESAFIOS E OPORTUNIDADES PARA A SUSTENTABILIDADE.
Defesa: 19 de fevereiro de 2021.
Banca: Profa. Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Fáber Danilo Giraldo (Co orientador), Prof. Dr. Leonel Pablo Carvalho Tedesco (UNISC), Prof. Dr. Gabriel Araújo e Silva Ferraz (UFLA).
Resumo:
A tão discutida transformação digital se manifesta como uma necessidade mundial para automação, eficiência e flexibilização da produtividade organizacional. Por outro lado, a globalização e a adoção tecnológica estão sendo frequentemente relacionadas aos pilares econômico, social e ambiental do desenvolvimento sustentável. Entre as divergências do desenvolvimento econômico e da proteção ambiental, o primeiro setor sofre com perdas irreparáveis e enfrenta inúmeras barreiras relacionadas às mudanças climáticas, degradação do solo, mecanização, desperdícios e exigências dos consumidores. Tais questões tornam a agricultura um dos maiores desafios do século. Com base nesta premissa, este trabalho objetivou compreender a adoção tecnológica nos sistemas cafeeiros, uma vez que o café é a segunda mercadoria mais comercializada no mundo e responsável pela renda de milhares de famílias. Para compreender o campo de estudo, uma revisão da literatura foi realizada apoiada por análise de redes com o software SciMAT (Science Mapping Analysis Software Tool) e pelo protocolo PRISMA (Preferred Reporting Items for Systematic Review and Meta-Analysis Protocols). Outra revisão da literatura foi realizada para compreender as linguagens de modelagem de processos mais utilizadas na literatura, a fim de analisar possíveis linguagens a serem utilizadas para modelar os processos inteligentes da agricultura 4.0 no setor cafeeiro. Um Delphi com especialistas foi realizado para compreender os principais desafios e oportunidades da adoção tecnológica no setor, bem como os principais impactos da transformação digital nos processos e na sustentabilidade dos sistemas cafeeiros. Os resultados foram distribuídos ao longo de três artigos, e poderão ser utilizados para auxiliar pesquisadores e profissionais do setor a compreender os principais desafios e oportunidades associados a adoção tecnológica para produção de alimentos para a crescente população mundial, ao mesmo tempo que protegem o planeta e asseguram dignidade, equidade e igualdade para as gerações futuras através do desenvolvimento sustentável.
Palavras-chave:
Agricultura 4.0; Agricultura Digital; Agricultura de Precisão; Sustentabilidade; Inovação; Transformação Digital.
Aluno: Pablo Venzke Tessmann.
Título: SISTEMA INTELIGENTE PARA A GERAÇÃO DE PLANO DE CUIDADO PERSONALIZADO AO IDOSO.
Defesa: 26 de março de 2021.
Banca: Profa. Dra. Rejane Frozza (Orientadora), Profa. Dra. Liane Mahlmann Kipper (UNISC), Profa. Dra. Ana Carolina Bertoleti de Marchi (UPF).
Resumo:
A tecnologia da informação vem impactando na forma como vivemos, comunicamos, reinventamos, na agregação do conhecimento e na forma de se conectar com outras pessoas. A população, de forma geral, está envelhecendo e, neste sentido, a tecnologia da informação pode ser uma aliada para auxiliar no atendimento e cuidado ao idoso, tornando-se cada vez mais especializada e sofisticada. Neste contexto, este trabalho tem como objetivo desenvolver um sistema inteligente para auxiliar na geração do plano de cuidado personalizado aos idosos em uma clínica geriátrica, utilizando as técnicas de Sistemas Especialistas e Raciocínio Baseado em Casos integradas. Sistemas Especialistas (SE) são sistemas inteligentes de apoio à decisão, baseados no conhecimento adquirido de especialistas humanos. O Raciocínio Baseado em Casos (RBC) é um método utilizado para solução de problemas, cuja experiência anterior é utilizada para solução futura. A metodologia de pesquisa baseou-se em uma revisão bibliométrica quantitativa e qualitativa. Na bibliometria quantitativa, foram realizadas buscas por artigos relacionados ao domínio, a partir do Portal de periódicos da CAPES, nas bases Scopus, Web of Science, ScienceDirect, Pubmed e Google Acadêmico. Na bibliometria qualitativa, foram realizadas sínteses de trabalhos relacionados, elencando aspectos dos sistemas desenvolvidos na área de cuidados com idosos. Os procedimentos metodológicos definidos para este trabalho foram: (1) definição do tema, estando alinhada às ações de aquisição de conhecimento (coleta de dados com especialista humano), busca e estudo de trabalhos relacionados e a fundamentação teórica sobre o tema de pesquisa; (2) modelagem e desenvolvimento do sistema inteligente proposto; (3) análises dos resultados e discussão; (4) divulgação dos resultados, com a escrita de artigos científicos. O sistema foi desenvolvido na linguagem de programação PHP (Hypertext Preprocessor). Com o auxílio da specialista humana, enfermeira, com especialização em gerontologia e dona de uma clínica geriátrica, a definição da modelagem das regras e dos casos para geração do plano de cuidado personalizado dos idosos foi realizada. Uma pesquisa sobre o perfil dos idosos institucionalizados, no Brasil e no exterior, envolvendo 20 artigos, também foi realizada, na qual pesquisou-se por estudos que apresentaram características demográficas, sociais e econômicas, com o objetivo de identificar o perfil do idoso que reside nas instituições de longa permanência, utilizando um estudo observacional sobre trabalhos relacionados. No sistema computacional inteligente desenvolvido, denominado Si-ILPI, o idoso que chegar à clínica geriátrica realiza o preenchimento do formulário de admissão, com as características demográficas, sociais e econômicas que serão utilizadas durante sua institucionalização. O armazenamento de dados foi estruturado para que possa ser utilizado em diferentes situações, como gerando alertas conforme os sinais vitais dos idosos, disponibilização de relatórios para conferência mensal ou de todo o período institucionalizado, evoluções de enfermagem, doenças previamente descritas na admissão do residente na clínica e a indicação de um plano de cuidado, a fim de auxiliar os profissionais nos cuidados recomendados a cada idoso, a partir do processo de raciocínio do SE e do sistema de RBC. O SE recebe os dados do idoso, que, então, são enviados para o RBC que busca por planos de cuidados similares às características do idoso em questão. O que se espera é qualificar o processo de cuidado ao idoso e as atividades dos profissionais cuidadores, ao longo do tempo de uso do sistema computacional inteligente na clínica.
Palavras-chave:
Plano de cuidado; Raciocínio Baseado em Casos; Sistema Especialista; Idosos; Sistemas Inteligentes; Instituições de Longa Permanência para Idosos.
Aluno: Tulio Cícero Haas Corrêa Lima
Título: EMBALAGENS PLÁSTICAS NO CONTEXTO DE ECONOMIA CIRCULAR E TECNOLOGIAS LIMPAS, UM ESTUDO DE CASO DA INDÚSTRIA DE TAMPAS PLÁSTICAS NO BRASIL.
Defesa: 20 de maio de 2021.
Banca: Prof. Dr. Ênio Leandro Machado (Orientador), Profa. Dra. Rosana de Cássia de Souza Schneider (Co orientadora), Profa. Dra. Liane Mählmann Kipper (UNISC), Profa. Dra. Cássia Maria Lie Ugaya (UTFPR).
Resumo:
No presente trabalho realizou-se em duas etapas, sendo a primeira uma análise cientométrica sobre as embalagens plásticas e sua correlação com a economia circular e com as tecnologias limpas nas principais bases de dados sobre o assunto (SCOPUS, Science Direct e Web Of Science). Essa análise serviu como referencial teórico para a segunda etapa, em que se realizou um estudo de caso para avaliar os impactos ambientais relacionados à etapa de fabricação de tampas plásticas durante os últimos anos, utilizando o método da AICV, em uma empresa de manufatura de embalagens plásticas na região central do RS. Nessa análise encontrou-se resultados como 25% de redução dos impactos ambientais relacionados a evolução de gerações de tampas plásticas (entre o primeiro e o terceiro modelo analisados). O estudo mostrou ainda espaço para novos estudos e avanços na fabricação de tampas plásticas como, por exemplo, o uso de resina reciclada pós-consumo (PCR), o uso de biopolímeros, e alterações no design dos produtos permitindo uma maior desmaterialização.
Palavras-chave:
embalagens plásticas; tampas plásticas; AICV; economia circular; tecnologias limpas; ecodesign.
Aluna: Gabrielle Fernanda Zimmer
Título: DETERMINAÇÃO DE ALCALOIDES TOTAIS, AÇÚCARES REDUTORES, NITRATO E AMÔNIA EM TABACO POR ESPECTROSCOPIA NO INFRAVERMELHO PRÓXIMO ASSOCIADA A MÉTODOS MULTIVARIADOS DE CALIBRAÇÃO.
Defesa: 21 de fevereiro de 2020.
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Profa. Dra. Rosana de Cássia de Souza Schneider (Coorientadora), Prof, Dr. Ênio Leandro Machado (UNISC), Prof. Dr. Edson Irineu Mueller (UFSM).
Resumo: O tabaco é um produto agrícola amplamente conhecido por seu elevado valor comercial, como principal fonte de matéria-prima para fabricação de cigarros e charutos. As plantas de tabaco são submetidas a uma série de processos fisiológicos e metabólicos durante seu período de crescimento e cura, processos esses que influenciam na variação da composição química das folhas a cada safra. Alcaloides totais, açúcares redutores, nitrato e nitrogênio são alguns dos componentes químicos medidos para determinar a qualidade desses tipos de tabaco. O controle de qualidade da folha do tabaco é fundamental para garantir que os teores das misturas de tabaco sejam mantidos entre lotes ao longo dos anos. Os métodos analíticos tradicionais possuem baixa capacidade de processamento de amostras, consomem muito tempo e mão-de-obra. Além disso, eles geram resíduos, usam reagentes nocivos e exigem equipamentos caros com altos custos de manutenção. Neste contexto, este estudo teve como objetivo desenvolver uma metodologia analítica para determinar alcaloides totais, açúcares redutores, nitrato e amônia presentes no tabaco utilizando um dispositivo amostrador automático de NIR equipado com sonda de fibra óptica associado a métodos multivariados de calibração. Para isso, quatro modelos de PLS foram desenvolvidos e diferentes métodos de pré-tratamento foram investigados. Os resultados previstos foram comparados com os obtidos pelo método de referência (análise de fluxo contínuo), e os valores de RMSEP de 0,27, 1,22, 0,45 e 0,04% foram obtidos para alcaloides totais, açúcares redutores, nitrato e amônia, respectivamente. O método proposto teve um bom desempenho para a análise de alcaloides totais e açúcares redutores. Em conclusão, considerando o desempenho dos modelos de regressão, a precisão e as vantagens ambientais e econômicas associadas, a aplicação do dispositivo de amostrador automático do NIR equipado com uma sonda de fibra óptica associada aos algoritmos PLS e siPLS ainda não podem substituir o método de referência, devido aos níveis de exigências do setor, mas é uma ferramenta promissora para o monitoramento do tabaco.
Palavras-chave: amostrador automático de NIR; sonda de fibra óptica; quimiometria; PLS; tabaco.
Aluno: Leandro Pinto Fava
Título: UM ALGORITMO HÍBRIDO PARA ROTEAMENTO E CARREGAMENTO DE VEÍCULOS CAPACITADOS COM RESTRIÇÕES DE CARREGAMENTO BIDIMENSIONAL PERMITINDO ROTAÇÃO.
Defesa: 27 de fevereiro de 2020.
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Jacques Nelson Corleta Schreiber (Coorientador), Prof. Dr. Elpídio Oscar Benitez Nara (UNISC), Prof. Dr. Claus Haetinger (IFSUL – Caxias do Sul).
Resumo: O presente trabalho refere-se ao estudo realizado sobre o problema de roteamento e carregamento de veículos capacitados (CVRP), com a adição de restrições de carregamento bidimensional (2L-CVRP) permitindo rotação dos itens na área de carga do veículo. O objetivo deste trabalho é apresentar modelos matemáticos e algoritmos que foram implementados como um framework de otimização híbrido com múltiplos inícios, com o propósito de encontrar soluções ótimas, ou próximas delas, para o problema em questão. Os algoritmos desenvolvidos foram baseados em metaheurísticas como Algoritmo Genético Construtivo (CGA), Busca Tabu (TS) e Large Neighborhood Search (LNS). A combinação destas restrições do CVRP com a aplicação destes algoritmos não foi identificada na literatura científica até então. Como referência para avaliação comparativa, foram realizados testes utilizando bases de dados disponíveis na literatura, amplamente reconhecidas e aplicadas em vários trabalhos similares. Muitos dos resultados obtidos foram iguais ou melhores que abordagens anteriores encontradas na literatura. Como principal contribuição, o trabalho traz como referência melhores resultados para as instâncias mais complexas da base de dados de Gendreau et al. (2008) para o CVRP puro. Além disso, com o framework desenvolvido conseguiu-se obter resultados melhores para várias instâncias do 2L-CVRP permitindo rotação dos itens. Foram realizados testes também em instâncias de CVRP puro propostas por outros autores, cujas soluções ótimas já foram encontradas por algoritmos exatos. Aplicando-se o framework nestas instâncias, grande parte das soluções foram encontradas com performance superior, principalmente quando comparado a outros algoritmos que usaram metaheurísticas para resolvê-los.
Palavras-chave: 2L-CVRP; algoritmo genético construtivo; busca tabu; carregamento bidimensional; large neighborhood search; problema de roteamento e carregamento de veículos capacitados; CVRP; rotação.
Aluno: Leonardo Moraes Aguiar Lima dos Santos.
Título: INDÚSTRIA 4.0: UMA ANÁLISE DAS RELAÇÕES ENTRE AS TECNOLOGIAS COM BASE NAS CARACTERÍSTICAS.
Defesa: 28 de fevereiro de 2020.
Banca: Prof. Dr. Elpídio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Miguel Afonso Sellitto (UNISINOS).
Resumo: O termo “Indústria 4.0”, desde sua primeira aparição em 2011 na Alemanha, vem sendo foco de pesquisas científicas e desenvolvimentos tecnológicos por várias áreas da comunidade acadêmica e da área industrial. A conceituação e a definição do que compõe a Indústria 4.0 está em constante atualização, sendo criados conhecimentos em diversos países e empresas de tecnologias de ponta ao redor do mundo. No entanto, um detalhamento sobre como aplicar e desenvolver na prática a Indústria 4.0 se faz necessário. O objetivo do estudo é a analisar as relações entre as tecnologias da Indústria 4.0, com foco na performance industrial, para a Indústria do Plástico no Brasil. Através de ferramentas de estudo sistemático, pretende-se definir as tecnologias-chave e as tecnologias colaborativas da Indústria 4.0, com base nas características. Por meio de aplicação de survey com especialistas da Indústria do Plástico do Brasil, definir quais destas tecnologias são mais adequadas e aplicáveis a este ramo da indústria. A base de conhecimento adquirida será representada por uma rede colaborativa entre as tecnologias da Indústria 4.0 e por um roteiro tecnológico aplicável a Indústria do Plástico do Brasil. Com o desenvolvimento deste estudo, espera-se chegar a um roteiro aplicável, capaz de guiar a Indústria do Plástico no Brasil na implementação das tecnologias da Indústria 4.0. O roteiro, focado em aumentar a performance industrial, irá auxiliar nos primeiros passos no processo de transformação para a indústria do futuro. Com o desenvolvimento da rede colaborativa, foi possível identificar quatro tecnologias-chave da Indústria 4.0, sendo elas Sistemas Ciber-físicos, Internet das Coisas, Big Data e Computação em Nuvem. Foram encontradas também mais oito tecnologias consideradas colaborativas, sendo elas Internet Industrial, Realidade virtual, Realidade aumentada, Inteligência artificial, Sistemas de aprendizagem, Sistemas Embarcados, Automação e Robótica. A contribuição desta pesquisa está na definição das relações entre as tecnologias da Indústria 4.0 e na criação de um roteiro tecnológico aplicável a Indústria do Plástico no Brasil. O aporte científico e prático deste estudo está na possibilidade de aplicação do roteiro de forma a contribuir com o desenvolvimento da Indústria 4.0 no Brasil e no mundo.
Palavras-chave: Indústria 4.0; Características das tecnologias, Tecnologias-chave; Tecnologias colaborativas; Redes colaborativas; Roteiro tecnológico.
Aluna: Marciane Mueller.
Título : SISTEMA BASEADO EM CONHECIMENTO PARA AUXÍLIO EM SERVIÇO DE URGÊNCIA E EMERGÊNCIA HOSPITALAR.
Defesa: 28 de fevereiro de 2020.
Banca: Profa. Dra. Rejane Frozza (Orientadora), Profa. Dra. Liane Mahlmann Kipper (Coorientadora), Prof. Dr. Marcelo Carneiro (UNISC), Profa. Dra. Carine Geltrudes Webber (UCS).
Resumo: Essa dissertação apresenta os resultados de uma pesquisa que teve como objetivo desenvolver um Sistema Baseado em Conhecimento para auxílio ao processo de classificação de risco e determinação de prioridade para atendimento médico de pacientes em contexto de urgência e emergência hospitalar. A organização metodológica foi definida e executada em três fases. Na primeira fase (Análise) foi realizado um estudo em profundidade acerca das questões relacionadas ao tema central da pesquisa, a identificação e a análise dos trabalhos relacionados e o desenvolvimento de um sistema especialista, a partir de uma abordagem tradicional, a fim de avaliar a aplicabilidade de técnica da Inteligência Artificial no contexto do processo base da pesquisa, que é a execução dos fluxogramas de avaliação contidos no Manchester Triage System, com foco na queixa de dor. Na segunda fase (Execução) foi desenvolvido um sistema baseado em conhecimento, na abordagem de uso da tecnologia Chatbot, buscando melhorar a etapa de coleta de dados clínicos do paciente, a partir da utilização de recursos de processamento da linguagem natural (fala), de forma a garantir a execução adequada dos roteiros de avaliação das queixas, sinais e sintomas previstos no protocolo padronizado de atendimento. O desenvolvimento compreendeu a modelagem da base de conhecimento em um editor de diálogos, a integração dessa base com a agente virtual Dóris, responsável pela coleta dos dados, e a integração com um banco de dados para armazenamento dos dados coletados ao longo das entrevistas de avaliação realizadas pelo agente virtual conversacional. A terceira fase compreendeu o planejamento, a organização logística e a execução dos testes de uso do sistema Chatbot em um cenário real, na qual se realizou a análise da viabilidade de uso do sistema e sua capacidade de auxiliar o processo de classificação de risco dos pacientes, na perspectiva principal da avaliação do sintoma de dor, e verificar a aceitabilidade de uso dessa abordagem pelos profissionais de saúde e pacientes atendidos em um serviço de urgência e emergência hospitalar de referência. Os resultados apresentados permitiram concluir que o uso de uma solução apoiada em técnicas e recursos da Inteligência Artificial em um contexto complexo, crítico e sensível de cuidados em saúde é viável tecnicamente e tem alto índice de aceitação de uso pelos usuários do processo.
Palavras-chave: Urgência e Emergência Hospitalar; Classificação de Risco; Manchester Triage System; Dor; Sistemas Baseados em Conhecimento; Sistemas Especialistas; Agentes Virtuais Conversacionais.
Aluno: Matheus Becker da Costa.
Título: MENSURAÇÃO DOS IMPACTOS DA INDÚSTRIA 4.0 E SUAS TECNOLOGIAS NO DESENVOLVIMENTO SUSTENTÁVEL NA INDÚSTRIA DO PLÁSTICO.
Defesa: 28 de fevereiro de 2020.
Banca: Prof. Dr. Elpídio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Miguel Afonso Sellitto (UNISINOS).
Resumo: Atualmente, a Indústria 4.0 é um dos tópicos que vem ganhando espaço em discussões na comunidade acadêmica, assim também como nas organizações industriais. Essa onda, também chamada de manufatura inteligente, pode revolucionar os processos de fabricação, o desenvolvimento de produtos, e a forma de pensar e planejar a manufatura, ao incorporar novas tecnologias na indústria. Essas novas tecnologias vêm sendo desenvolvidas em diferentes partes do mundo, e o investimento se torna um paradigma para a manufatura. Em contrapartida, a sustentabilidade é um requisito cada vez mais significante para as indústrias atuais, devido a legislações mais rigorosas quanto impactos ambientais e sociais. Dessa forma, as organizações se adequarão de acordo com essas abordagens num futuro próximo, se fazendo necessário o entendimento dos impactos das tecnologias da Indústria 4.0 no desenvolvimento sustentável. Portanto, o objetivo deste trabalho é mensurar o impacto da Indústria 4.0 e suas tecnologias no desenvolvimento sustentável. Baseado na mineração de dados de bibliometria e na literatura sobre as principais tecnologias da Indústria 4.0, e indicadores do desenvolvimento sustentável, um survey estruturado com especialistas foi elaborado para mensurar o potencial impacto. Amparado pela ABIPLAST, o survey captou a percepção dos especialistas da indústria plástica brasileira. Com o auxílio de técnicas de análise multicritério, foram identificadas as tecnologias da manufatura inteligente de maior impacto para o desenvolvimento sustentável, bem como o perfil sustentável de cada tecnologia.
Palavras-chave: Indústria 4.0; Manufatura Inteligente; Sustentabilidade; Desenvolvimento Sustentável; Análise Multicritério.
Aluno: Ronaldo Bastos dos Santos.
Título: DESENVOLVIMENTO DE UMA NOVA METODOLOGIA PARA DETERMINAÇÃO SIMULTÂNEA DE MATÉRIA ORGÂNICA E ARGILA, POR ESPECTROSCOPIA NO INFRAVERMELHO PRÓXIMO.
Defesa: 26 de fevereiro de 2020.
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Prof. Dr. Jorge Luís Victória Barbosa (Coorientador), Profa. Dra. Rosana de Cássia de Souza Schneider (UNISC), Prof. Dr. Luís Frederico Rodrigues (PUC).
Resumo: O setor agropecuário brasileiro é estratégico para a economia do país, pois é responsável por cerca de 20% de todos os empregos e contribui com mais de 23% do Produto Interno Bruto – PIB. O crescimento constante e as projeções otimistas para o futuro têm impulsionado a adoção de novas tecnologias para a produção agrícola. A Agricultura de Precisão pode ser definida como um sistema de manejo integrado de informações no qual áreas georreferenciadas têm seus dados de produção cruzados com as informações do solo possibilitando a automação do processo de dosagem de adubos e defensivos agrícolas. Atualmente, estima-se que mais de quatro milhões de análises são realizadas por ano no Brasil, as quais são realizadas usando métodos tradicionais, que além de morosos, usam quantidades significativas de reagentes químicos que geram resíduos perigosos. Então, o desenvolvimento de novos métodos analíticos, ágeis para atender as demandas do setor produtivo e ambientalmente seguros, se faz particularmente importante. Neste contexto, este estudo usou a espectroscopia no infravermelho próximo (NIR) juntamente com algoritmos de regressão parcial (PLS) para a determinação rápida de matéria orgânica e argila em amostras de solo, desenvolvendo também, o software Soil Data Analysis – SDA para a modelagem, análise e expressão dos resultados. As amostras usadas foram obtidas junto ao Laboratório de Solos da Central Analítica da Universidade de Santa Cruz do Sul, RS – Brasil, com as respectivas concentrações, determinadas pelos métodos convencionais – Walkley-Black e Bouyoucos. Os espectros foram adquiridos numa mesa autoamostradora desenvolvida pela Fooze Tecnologia equipada com espectrômetro NIERQUEST 512-2.5, Ocean. Optes®, US. Dois modelos de predição foram desenvolvidos, um para matéria orgânica e outro para argila, foram usadas 410 amostras na modelagem e os melhores resultados foram obtidos aplicando os pré-processamentos SNV – Standard Normal Variate, OSC – Orthogonal Signal Correction, e MC – Centrado na Média. Com 7 e 5 variáveis latentes, os modelos apresentaram R2c 0,9452 e 0,9387; R2v 0,8768 e 0,8518; RMSEC de 0,33 e 3,0; (RMSECV) de 0,5 e 4,7, respectivamente. A partir do melhor modelo foi aplicado o algoritmo Kennard-Stone com 85% das amostras para calibração e 15% predição e o (RMSEP) foi de 0,45 e 3,2 para matéria orgânica e argila, respectivamente. O SDA integrou o equipamento de aquisição dos espectros com os modelos de predição interpretando os dados adquiridos, apresentando os resultados em tempo real, trazendo agilidade ao processo de análise. Todo o processo desenvolvido atende a todos os princípios da Química Analítica Verde.
Palavras-chave: Infravermelho; Solo; Matéria Orgânica; Argila; Analises rápidas; Química analítica verde.
Aluna: Sandra Elisia Lemoes Iepsen.
Título: COMPETÊNCIAS PROFISSIONAIS PARA INDÚSTRIA 4.0: UM ESTUDO TEÓRICO-PRÁTICO EM AMBIENTES DE INOVAÇÃO.
Defesa: 26 de fevereiro de 2020.
Banca: Profa. Dra. Liane Mahlmann Kipper (Orientadora), Profa. Dra. Ana Júlia Dal Forno (Coorientadora), Profa. Dra. Rejane Frozza (UNISC), Prof. Dr. Daniel Pacheco Lacerda (UNISINOS).
Resumo: Esta dissertação teve como objetivo identificar as competências requeridas para os profissionais que trabalham em ambientes de inovação mediante as transformações causadas pela Indústria 4.0. A partir de uma revisão sistemática da literatura e mapeamento científico internacional, realizado com auxílio do software SciMAT, foi possível identificar o conjunto de competências (conhecimento e habilidades) necessário para a formação do profissional do futuro mediante o uso das tecnologias emergentes que formam a base da Indústria 4.0. Neste estudo destacou-se a importância da integração de esforços entre organização-governouniversidade e identificou-se um conjunto de competências, como por exemplo: conhecimentos em automação industrial, tecnologia da informação e comunicação, desenvolvimento e segurança de software, habilidades em resolução de problemas, flexibilidade, criatividade entre outras. A partir deste grupo de competências foi realizada uma pesquisa com quatorze (14) ambientes de inovação (Parques Tecnológicos - PTs) situados no Rio Grande do Sul – Brasil, e associados à Rede Gaúcha de Ambiente de Inovação (Reginp). Nesta pesquisa considerou-se a semelhança entre os Parques Tecnológicos e as Learning Factories, no que se refere a ambos serem ambientes de inovação propícios ao aprendizado proporcionando experiências práticas aos profissionais, capacitando-os da melhor forma para as necessidades futuras. Um estudo de campo foi realizado a fim de compreender, na percepção de representantes de universidades, gestores dos Parques Tecnológicos associados à Rede Gaúcha de Ambiente de Inovação (Reginp), e representantes do governo e da indústria, quais as habilidades fundamentais para trabalhar nestes ambientes de inovação. Para a análise de dados, o método multicritério MOORA (Multi-Objective Optimization on the basis of Ratio Analysis) foi utilizado e os principais resultados encontrados foram de que as soft skills são as habilidades mais importantes para o desenvolvimento dos profissionais, tendo se destacado a criatividade ou pensamento criativo, habilidade para trabalhar em equipe e resolução de problemas. Dentre as hard skills, destacou-se a análise de dados. Esta pesquisa também identificou as tecnologias frequentemente utilizadas pelas empresas associadas aos PTs sendo, elas Tecnologia de Informação e Comunicação, Cloud Computing, Sistemas Integrados, Sensores e Internet de Serviços (IoS).
Palavras-chave: Indústria 4.0; Fábricas Inteligentes; Fábricas de Aprendizagem; Parques Tecnológicos; Inovação; Habilidades; Mapeamento Científico.
Aluno: Alexandre da Silva Lima
Título: GERENCIAMENTO DE PROCESSOS DE NEGÓCIOS E A GESTÃO ENXUTA DE INFORMAÇÃO PARA A MINIMIZAÇÃO DE DESPERDÍCIOS EM UMA INDÚSTRIA DE BEBIDAS.
Defesa: 19 de julho de 2019.
Banca: Prof.ª Dra. Liane Mahlmann Kipper (Orientadora), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Daniel Pacheco Lacerda (UNISINOS), Prof.ª Dra. Ana Júlia Dal Forno (UFSC).
Resumo: O interesse em reduzir perdas e desperdícios nas organizações cresce constantemente. Eliminar esforços em atividades que não agregam valor e reduzir desperdícios proporcionam o aumento da rentabilidade nas empresas. Falhas na comunicação e na integração das áreas de planejamento, manufatura e estoque também podem gerar perdas no processo e aumentar o custo de estocagem, em especial em uma indústria de bebidas. Este trabalho teve como objetivo reduzir desperdícios e a diferença entre o estoque planejado de produto com o estoque efetivo utilizando o gerenciamento de processos de negócios e a gestão enxuta de informação. Para o desenvolvimento desse estudo as metodologias utilizadas foram a revisão sistemática da literatura e a pesquisa-ação. Incialmente foi analisada a possibilidade de integração do Value Stream Mapping (VSM) e do Business Process Modeling and Notation (BPMN) por meio de uma revisão sistemática da literatura, seguindo as diretrizes definidas pelo PRISMA. Observou-se neste estudo que é possível integrar VSM e BPMN, obtendo resultados em reduções de lead time, da complexidade do processo, do estoque e melhorias no alinhamento das informações. A aplicação da modelagem BPMN e o gerenciamento enxuto da informação foi o segundo passo. A execução de BPMN e LIM demonstrou ser um caminho possível de integração, obtendo melhorias em um processo que envolve às áreas comercial, planejamento e controle da produção (PCP), planejamento de materiais, manufatura e armazém em uma indústria de bebidas. Dos principais resultados encontrados destacam-se a redução de 35% para 3% na variação do estoque planejado de produto acabado para o estoque efetivo e redução de tempo em retrabalhos para o alinhamento de atividades da manufatura em uma linha de produção de refrigerantes com embalagens plásticas.
Palavras-chave: Gestão de processos; Mapeamento do fluxo de valor; Produção enxuta; Gerenciamento enxuto da informação; Indústrias de bebidas.
Aluno: Brunno Jose Fagundes
Título: ABORDAGEM PARA AVALIAÇÃO DE MODELOS DE CONTEÚDO ORIENTADOS AOS ESTILOS DE APRENDIZAGEM EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
Defesa: 28 de fevereiro de 2019
Banca: Prof.ª Dra. Rejane Frozza (Orientadora), Prof.ª Dra. Liane Mahlmann Kipper (UNISC) e Prof.ª Dra. Adriana Soares Pereira (UFSM)
Resumo: Em Ambientes Virtuais de Aprendizagem (AVA) os usuários interagem com o conteúdo apresentado e constroem seu conhecimento. Diferentes estudantes com formações em diferentes áreas de conhecimento podem interagir com um mesmo ambiente, mas cada um possui uma forma particular de manipular as informações para construir seu conhecimento. Esta particularidade é denominada Estilo de Aprendizagem (EA) e é abordada por diferentes autores, os quais classificam indivíduos de acordo com as suas preferências e características de manusear as informações. Além disso, para cada EA é possível adotar uma estratégia de ensino diferente, potencializando ainda mais a formação de conhecimento dos usuários. Este trabalho apresenta o desenvolvimento de modelos de conteúdo orientados aos EAs estudados que favoreçam a construção do conhecimento de usuários de um AVA que considera os EA para apresentação dos conteúdos. Neste sentido, apresenta-se uma abordagem para a validação da classificação dos usuários, de acordo com os EA definidos por Felder e Silverman (1988), utilizando uma validação segmentada em dois momentos, sendo composta por uma survey como método inicial e uma reavaliação utilizando o mesmo questionário através do AVA. Ainda, propõe uma avaliação dos resultados da interação dos usuários com o AVA utilizando o software FaceReader combinado com a avaliação utilizando o dispositivo de eye tracker. Adicional aos métodos apresentados, utilizou-se um questionário de pós-teste para avaliar a experiência dos usuários frente aos modelos de conteúdos apresentados. Esta abordagem permitiu realizar uma análise do caminho visual do usuário, das emoções identificadas durante a interação com conteúdo apresentado e identificar se os resultados obtidos através do questionário proposto por Felder e Silverman (1988) se refletem nas reais preferências dos usuários quando utilizam um AVA. Os resultados obtidos permitiram observar que a adaptação dos modelos de conteúdo aos Estilos de Aprendizagem é relevante, visto que os usuários alternaram suas preferências entre a verificação inicial (survey) e de quando interagiram com o AVA, além de que identificar melhor desempenho do dispositivo de eye tracker do que o software do FaceReader na análise dos resultados.
Palavras-chave: Estilos de Aprendizagem, Ambientes Virtuais de Aprendizagem, Software FaceReader, Eye tracker.
Aluno: Carlos Henrique Sardi Mergen
Título: ESTUDO E UTILIZAÇÃO DE TÉCNICAS DE MINERAÇÃO DE DADOS NA PREDIÇÃO DA EVASÃO UNIVERSITÁRIA
Defesa: 27 de fevereiro de 2019
Banca: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. Sílvio Cesar Cazella (UFSCPA)
Resumo: A evasão de alunos representa um problema global que afeta qualquer entidade de ensino, tanto as que oferecem cursos presenciais quanto aquelas que oferecem cursos à distância. No contexto das universidades, alguns cursos se destacam mais que os outros por apresentarem um índice maior de desistências, sendo que diversos fatores podem contribuir para que o mesmo ocorra. Com base nisso, a presente dissertação apresenta um estudo feito acerca das técnicas de mineração de dados e de como elas podem ser aplicadas em um grande volume de dados de alunos a fim de extrair informações importantes para criar um modelo de predição de evasão. Para se chegar a um modelo ideal, foram realizadas pesquisas envolvendo os fatores que mais contribuem para a desistência do aluno. A partir da identificação desses fatores, foi criado um modelo de dados padrão baseado em indicadores. O modelo foi submetido a testes de classificação utilizando diferentes técnicas de mineração, até encontrar a mais adequada. Por fim, com base nos bons resultados de predição obtidos, foi constatado que o modelo de dados baseado em indicadores pode ser utilizado como um modelo padrão para casos que envolvem a predição da evasão e podem servir como uma alternativa viável no auxílio à tomada de decisão no que diz respeito a evitar possíveis desistências de alunos. Além disso, como complemento, foram desenvolvidos dois novos algoritmos de classificação para conjuntos de dados numéricos, que podem ser utilizados tanto no contexto da predição da evasão quanto em diferentes domínios.
Palavras-chave: Mineração de Dados; Educação; Evasão de alunos.
Aluno: Daniel Vinicius Moraes
Título: SISTEMA COMPUTACIONAL PARA AUXILIAR NO MONITORAMENTO DE SAÚDE DE IDOSOS RESIDENTES EM UMA CLÍNICA GERIÁTRICA
Defesa: 28 de fevereiro de 2019
Banca: Prof.ª Dra. Rejane Frozza (Orientadora), Prof.ª Dra. Liane Mahlmann Kipper (UNISC) e Prof.ª Dra. Adriana Soares Pereira (UFSM)
Resumo: A tecnologia tem se tornado cada vez mais presente e acessível na vida cotidiana das pessoas e a popularização de dispositivos vestíveis com sensores (wearable) está permitindo capturar parâmetros sobre seu estado de saúde. Sabe-se que o público idoso está mais suscetível a problemas de saúde, seu aumento populacional é um fenômeno evidente em vários países e a terceirização deste cuidado, através das clínicas geriátricas, já é consolidado em nossa sociedade. Neste contexto, o objetivo principal deste trabalho é desenvolver um sistema computacional para auxiliar no monitoramento de saúde de idosos residentes em uma clínica geriátrica, capaz de coletar dados advindos de pulseiras vestíveis, dados de histórico de saúde e relatos de idosos, para auxiliar os enfermeiros no cuidado diário destes residentes. O estudo de caso, realizado na clínica geriátrica, foi desenvolvido em três etapas. A etapa inicial apresenta uma revisão da literatura, a fim de relacionar os problemas de saúde enfrentados pelos idosos com soluções tecnológicas vestíveis, para identificar os estudos mais relevantes da área, quais os parâmetros de saúde monitorados e que dispositivos e sensores foram utilizados. A segunda etapa contempla um agente virtual (chatterbot) de conversação em linguagem natural, através de texto ou áudio, cujo objetivo é interagir com os idosos residentes da clínica geriátrica. A partir de um relato iniciado pelo idoso, o chatterbot pode questioná-lo para obter mais informações sobre seu estado de saúde e rotina. A terceira etapa refere-se ao desenvolvimento do sistema de auxilio no monitoramento de saúde ao idoso, com um método híbrido de coleta de dados, dados provindos de pulseiras vestíveis, dados de histórico dos residentes e dados da interação entre idosos e o chatterbot. O sistema desenvolvido permitiu a modernização do processo de monitoramento dos idosos residentes, melhorou a comunicação entre os cuidadores enfermeiros nas trocas de plantão, pelo registro de intercorrências, que podem ser inseridas tanto pelos cuidadores enfermeiros de forma manual, quanto de forma automática pelas regras do sistema. As regras do sistema auxiliam o cuidador enfermeiro na visualização dos parâmetros que podem estar fora dos limites aceitáveis, explicitando-os durante o processo de coleta. Estas informações registradas no sistema são acessadas pelo enfermeiro chefe, que é responsável pela manutenção do plano de cuidado dos residentes idosos, qualificando a sua tomada de decisão quanto aos procedimentos a serem realizados.
Palavras-chave: Cuidados de saúde, Dispositivo vestível, Sistema de monitoramento, Idoso, Chatterbot.
Aluno: Geferson de Moraes
Título: REDUÇÃO DE ARTEFATOS DE MOVIMENTO EM SINAIS PPG
Defesa: 21 de fevereiro de 2019
Banca: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Leonel Pablo Tedesco (Coorientador), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC) e Prof. Dr. João Baptista dos Santos Martins (UFSM)
Resumo: Os dispositivos médicos vestíveis estão se popularizando e revolucionando os segmentos de healthcare, telemedicina, reabilitação e monitoramento de exercícios físicos. Photoplethysmo-graphy (PPG) é um método não invasivo para detectar as alterações do volume sanguíneo intravascular e é comumente utilizado para monitorar a Frequência cardíaca (HR). O monitoramento da frequência cardíaca (HR) usando sinais (PPG), obtidos do pulso do usuário, facilita muito o design de dispositivos vestíveis e maximiza a experiência do mesmo. No entanto, é difícil obter um sinal PPG sem ruído, uma vez que, apesar de seus atributos positivos, apresenta sensi-bilidade aos movimentos físicos que causam o efeito conhecido como artefatos de movimento (MA), que, conforme a intensidade, pode tornar o sinal inutilizável. Este estudo visa descobrir os métodos mais utilizados e estabelecer um padrão para resultados, bem como apresenta uma nova abordagem para a remoção de MA em sinais PPG. O método proposto é composto de 2 canais PPG independentes, que são processados de forma individual e simultânea. Para cada canal é realizado uma primeira etapa de filtragem, utilizando para isto o filtro Savitzky Golay e, em seguida, o sinal é submetido ao filtro passa banda adaptativo baseado em FFT. Após, é realizado o cálculo da HR, para então fazer a seleção do canal PPG com melhor resultado e, por fim, é passado por um novo filtro de suavização Savitzky Golay. Foram realizadas buscas nas bases de pesquisa e foi obtido um total de 273 registros. A primeira etapa de filtragem resultou em 98 artigos que foram submetidos a leitura completa onde restaram 56 estudos selecionados. Já para o método proposto, os resultados obtidos foram comparados a algoritmos encontrados na literatura. O presente trabalho apresenta, para os conjuntos de dados de treinamento, erro absoluto médio de 1,19 batimentos por minuto (BPM). Quanto aos conjuntos de dados de teste, obteve-se erro absoluto médio de 1,56 BPM. Embora todos os trabalhos tenham um bom desempenho, o método proposto forneceu melhor precisão quando os artefatos de movimento tornaram-se mais intensos, especialmente quando a frequência de movimento está muito próxima da taxa de batimentos cardíacos. Ainda estão aqui relacionados os métodos mais utilizados e quais produzem melhores resultados.
Palavras-chave: Artefatos de Movimento, PPG, Fotopletismografía, Heathcare. Wearable.
Aluno: Iberê Damé Teixeira
Título: DESENVOLVIMENTO DE SISTEMA DE TITULAÇÃO TERMOMÉTRICA NO INFRAVERMELHO
Defesa: 27 de fevereiro de 2019
Banca: Prof.ª Dra. Liane Mahlmann Kipper (Orientadora), Prof. Dr. Adilson Ben da Costa (Coorientador), Prof.ª Dra. Roberta Oliveira Santos (UNISC) e Prof.ª Dra. Bruna Tischer (UFRGS)
Resumo: O objetivo deste estudo foi desenvolver melhorias em um equipamento para análises químicas utilizando o conceito da titulação termométrica, além de buscar melhorias no processo de análise que necessita de uma habilidade do analista para execução da análise. A titulação termométrica é uma técnica de análise entalpimétrica ou calorimétrica que utiliza a variação de entalpia da reação para determinar o ponto final da reação. O ponto final da reação é utilizado para determinar quantitativamente um analito. Esta técnica não requer uma grande preparação de amostra, dispensando etapas de preparação demoradas e reduzindo custos com reagentes. Sendo assim, este trabalho tem embasamento no conceito da química analítica verde, onde um dos 12 princípios é a geração do mínimo de resíduos e com o mínimo de utilização de reagentes, o que consequentemente acarreta além de um processo mais limpo em um processo com menor custo. O trabalho baseou-se na estratégia de pesquisa da Design Science Research para orientar as pesquisas e desenvolvimentos. No contexto de projeto e desenvolvimento do equipamento foi utilizado um software de desenho (CAD) e os componentes foram impressos utilizando uma impressora 3D. Neste desenvolvimento foram utilizados materiais de baixo custo e tecnologias de manufatura aditiva. O dispositivo ainda contou com sensor de temperatura no infravermelho e uma bomba dosadora, utilizada para adição e controle da quantidade do titulante adicionado para a reação. Para avaliar seu comportamento e funcionalidades, foram realizados testes para quantificação de sódio em molhos alimentícios e também acidez total de vinagres comerciais. Os resultados demonstraram-se satisfatórios tanto do ponto de vista de análise química quanto tecnológico, apresentando-se funcional, prático e seguro na sua operação. Além disso, foram observadas algumas vantagens e facilidades em relação ao ensaio convencional de titulação termométrica. As amostras de calibração e as amostras de teste apresentaram coeficientes de determinação superiores a 0,998 e uma concordância de 96 e 106% em relação a técnica convencional realizada anteriormente.
Palavras-chave: Titulação termométrica, Entalpimetria no infravermelho, Design Science Research, manufatura aditiva.
Aluno: Irving Flores da Silva
Título: ROTEAMENTO E CARREGAMENTO DE VEÍCULOS NO CONTEXTO DA LOGÍSTICA SUSTENTÁVEL: OTIMIZAÇÃO DE MODELOS E ALGORITMOS
Defesa: 26 de fevereiro de 2019
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Ênio Leandro Machado (Coorientador), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC) e Prof. Dr. Felipe Martins Müller (UFSM)
Resumo: Influenciando diretamente na gestão eficiente do transporte, na coordenação da cadeia de suprimento e nas atividades logísticas de movimentação, armazenagem e transporte de produtos, surgem o Problema de Roteamento de Veículos e o Problema de Carregamento de Contêineres, ambos problemas de otimização combinatória. Ao serem analisados separadamente, os problemas já são NP-difíceis, e muito difíceis de resolver na prática. Sua combinação é extremamente desafiadora e estimulante, motivado pela sua notória dificuldade como problemas de otimização combinatória, e também, pela sua relevância prática. Devida à literatura específica ainda ser bastante limitada, o presente trabalho realizou uma Revisão Sistemática da Literatura dos Problemas de Roteamentos e Carregamento de Veículos no contexto da Logística Sustentável que tornar-se-á útil tanto para pesquisadores do mundo acadêmico quanto do mundo industrial. Ainda, este buscou, através da modelagem de métodos heurísticos e metaheurísticos, otimizar simultaneamente o planejamento dos roteiros de veículos e o arranjo de carga dentro dos mesmos, respeitando uma série de considerações práticas oriundas do Problema de Roteamento de Veículos e do Problema de Carregamento de Contêineres, propondo assim atingir uma solução eficaz, confiável e em um menor tempo de processamento.
Palavras-chave: Roteamento de Veículos. Carregamento de Contêineres. Problemas de Roteamento e Carregamento de Veículos. Otimização Combinatória. Revisão Sistemática da Literatura. Logística Sustentável.
Aluno: Jairo Koncimal
Título: USO DE DATA MINING E RNA PARA OTIMIZAÇÃO DE GERADORES DE VAPOR ALIMENTADOS COM LENHA
Defesa: 22 de fevereiro de 2019
Banca: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Jacques Nelson Corleta Schreiber (Coorientador), Prof. Dr. Leonel Pablo Tedesco (UNISC) e Prof. Dr. Raul Sidnei Wazlawick (UFSC)
Resumo: O gerenciamento energético adequado nas mais diversas aplicações possibilita a obtenção de diferencial competitivo. Este trabalho aborda a utilização de técnicas de Data Mining para um estudo que visa a otimização da combustão em geradores de vapor. O sistema de combustão em geradores de vapor alimentados com lenha é uma estrutura complexa, com comportamento não linear, composto de múltiplas variáveis interdependentes de entrada e de saída. Uma das etapas realizadas foi o desenvolvimento de procedimento metodológico onde foram definidos e detalhados os passos a serem seguidos para a obtenção da otimização energética. Para a realização desta primeira etapa foi realizado um estudo nas bases de dados acadêmicas onde foram obtidas informações a partir de estudos semelhantes. Em função da disponibilidade de dados históricos, utilizou-se a técnica Redes Neurais Artificiais (RNA) para modelagem matemática para delinear uma estratégia para a otimização do processo de combustão. O procedimento metodológico proposto possui a capacidade de conduzir a descoberta de relações que possibilitarão o manuseio das variáveis independentes do equipamento tendo em vista o atingimento de condições ótimas de operação. A segunda etapa realizada foi a aplicação do procedimento metodológico em uma situação real em um gerador de vapor alimentado com lenha de eucalipto, obtendo-se a comprovação experimental dos resultados teóricos. Além do suporte à operação estas relações descobertas potencializam a predição de eventos indesejáveis.
Palavras-chave: Geradores de vapor a Lenha, Data-Mining, Otimização, Redes Neurais Artificiais.
Aluno: Jaqueline Moraes
Título: MENSURAÇÃO DA COMPETITIVIDADE DE ASSOCIAÇÕES EMPRESARIAIS
Defesa: 27 de fevereiro de 2019
Banca: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. Leonardo Nabaes Romano (UFSM)
Resumo: As Associações Empresariais (AEs) possuem um papel importante para a economia, o desenvolvimento das empresas e cidades, e representam negócios de diferentes portes e setores. Esta dissertação contempla essa realidade considerando a necessidade das AEs em entender seus pontos fortes e fracos que influenciam sua capacidade de competir visando atrair e manter seus associados. Na literatura acadêmica encontram-se artigos que investigam o ponto de vista das empresas em relação às AEs, porém, há uma lacuna quanto à abordagem da opinião dos gestores das AEs e ferramentas de gerenciamento específicas para essas entidades. Assim sendo, esse trabalho tem como propósito realizar a mensuração da competitividade de forma global das AEs do Rio Grande do Sul, Brasil. Para isso, investigaram-se os termos relacionados ao assunto de modo a identificar publicações relevantes visando compreender e aprofundar o tema. Elaborou-se uma modelagem estruturada baseada no algoritmo de mineração de dados Naive Bayes que pode ser usado como uma ferramenta de gerenciamento para AEs, concentrando seus esforços naqueles negócios que são genuinamente novos membros em potencial. Apresenta-se um método de avaliação da competitividade para gestores de AEs por meio da identificação do contexto, modelagem da árvore de decisão, elaboração da survey, coleta e tratamento dos dados, aplicação de método multicritério e classificação das taxas obtidas. Os resultados apresentados fornecem uma referência valiosa em relação à avaliação de competitividade em AEs do Rio Grande do Sul, Brasil. A taxa global de competitividade encontrada foi de 4,2559 em uma escala de 1 a 5. Essa taxa pode servir como parâmetro e orientar os gestores de AEs na tomada de decisão. Do ponto de vista acadêmico, esse trabalho auxilia na ampliação da visão teórica sobre a importância dessas entidades. Sob a óptica técnica, proporciona ferramentas capazes de direcionar os gestores das AEs em sua administração e identificar obstáculos e oportunidades de melhoria.
Palavras-chave: Competitividade. Mensuração. Associação Empresarial. Gerenciamento.
Aluno: Jones LuÍs Schaefer
Título: MENSURAÇÃO DA COMPETITIVIDADE DE MICRO E PEQUENAS EMPRESAS
Defesa: 28 de fevereiro de 2019
Banca: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. Julio Cezar Mairesse Siluk (UFSM)
Resumo: A competitividade é um tema importante para as empresas e a preocupação em comprar, produzir e vender melhor torna-se primordial em ambientes de incertezas. As Micro e Pequenas Empresas participam ativamente do setor industrial respondendo por uma fatia considerável do mercado, sendo sua competitividade motivo de preocupação dos gestores. Este trabalho concentrou esforços na elaboração de uma modelagem correlacionando conceitos que influem sobre a competitividade dessas empresas como Pontos de Vista Fundamentais, Fatores Críticos de Sucesso e Indicadores-Chave de Performance. Com esta modelagem pode ser realizada a mensuração tanto de forma individual quanto global da competitividade das micro e pequenas empresas dos Vales do Rio Pardo, Taquari e Alto Jacuí – Rio Grande do Sul, Brasil. Para possibilitar o atendimento deste objetivo foi realizada uma pesquisa bibliográfica e documental para listar quais Pontos de Vista Fundamentais, Fatores Críticos de Sucesso e Indicadores-Chave de Performance influem sobre a competitividade das Micro e Pequenas Empresas e, com o auxílio de especialistas foram selecionados e modelados em uma árvore de decisão aqueles mais relevantes. Através de uma survey com os gestores das Micro e Pequenas Empresas da indústria dos Vales do Rio Pardo, Taquari e Alto Jacuí – Rio Grande do Sul, Brasil, foram coletadas opiniões destes quanto à importância da utilização dos Indicadores-Chave de Performance nas suas empresas. Utilizando métodos de Análise Multicriterial Multi-Attribute Utility Theory (MAUT), VlseKriterijuska Optimizacija I Komoromisno Resenje (VIKOR), Multi-Objective Optimization by Ratio Analysis (MOORA) e Tomada de Decisão Iterativa Multicritério (TODIM), e uma hibridização destes com Redes Neurais Artificiais obtiveram-se as Taxas Individuais de Competitividade, ranqueando as empresas por ordem de competitividade. Através destes métodos, obteve-se a Taxa Global de Competitividade das Micro e Pequenas Empresas pesquisadas. Com a aplicação das Redes Neurais Artificiais, foi possível otimizar e ajustar a modelagem diminuindo o número de critérios em 39% e mantendo uma correlação de 95% entre as variáveis. A contribuição desta pesquisa está na abordagem utilizada, integrando variáveis e conceitos como Pontos de Vista Fundamentais, Fatores Críticos de Sucesso e Indicadores-Chave de Performance que, aliados aos métodos de Análise Multicriterial e Redes Neurais Artificiais, possibilitam obter uma forma de mensurar a competitividade de Micro e Pequenas Empresas de forma estruturada, apresentando a inter-relação desses diferentes conceitos.
Palavras-chave: Competitividade; Taxa Global de Competitividade; Taxa Individual de Competitividade; Análise Multicriterial; Redes Neurais Artificiais; Micro e Pequenas Empresas.
Aluno: Ricardo Kessler
Título: CLASSIFICAÇÃO DO ÓLEO DIESEL S10 E S500 UTILIZANDO ESPECTROSCOPIA NO INFRAVERMELHO E ANÁLISE DISCRIMINANTE POR MÍNIMOS QUADRADOS PARCIAIS.
Defesa: 18 de dezembro de 2019.
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Profa. Dra. Roberta Oliveira Santos (Coorientadora).
Resumo: O óleo diesel é um subproduto proveniente do petróleo cru e tem influência direta na economia do Brasil. A malha rodoviária brasileira é especialmente dependente do óleo diesel, pois os caminhões, que fazem o transporte dos bens e serviços, têm os motores desenvolvidos para combustão deste combustível. O diesel rodoviário está dividido em duas categorias: o S10 B (contém até 10 mg.kg-1 de enxofre) e o S500 B (contém até 500 mg.kg-1 de enxofre) também chamado de comum. Para o controle de qualidade desse óleo diesel, que é fornecido pela Ipiranga Produtos de Petróleo S/A, é feita a análise dos parâmetros físico-químicos como, enxofre total, viscosidade cinemática, massa específica, entre outros. Os métodos utilizados para analisar os parâmetros e constatar adulterações demandam tempo, preparação de material e equipamentos específicos através de métodos padronizados. Nesse contexto, o presente estudo visou avaliar a aplicação da espectroscopia no infravermelho com transformada de Fourier (FT-IR) com auxílio do algoritmo de regressão por mínimos quadrados parciais por análise discriminante (PLS-DA) para rápida classificação do tipo de combustível adulterado, fora dos padrões. Logo, os modelos de classificação desenvolvidos para classificar quatro diferentes tipos de óleo diesel: S10 A (puro), S10 B (com biodiesel), S500 A (puro) e o S500 B (com biodiesel), sendo que a amostra prevista fora do modelo padronizado de calibração é classificada como possível adulteração. As amostras analisadas pela refinaria estavam com os parâmetros dentro da especificação, tanto para os óleos puros (A) quanto para os óleos com biodiesel (B). Os modelos criados apresentaram concordância e classificaram as amostras corretamente, com exceção de duas com biodiesel. O erro médio quadrático de validação cruzada (RMSECV) dos modelos criados ficou entre 0,036 e 0,136. Assim, o procedimento proposto tem capacidade para ser utilizado como um método para fiscalizar combustíveis com possível adulteração. A rapidez com a alta capacidade de processamento das amostras pode auxiliar na identificação de amostras anômalas suspeitas. A sustentabilidade está presente no método proposto, pois vai ao encontro da redução do uso de matéria prima, a não necessidade de pré-tratamento da mesma, levando a um menor desperdício de resíduo químico e rapidez na análise.
Palavras-chave: óleo diesel S10/S500; adulteração; FT-IR, PLS-DA; sustentabilidade.
Aluno: Adriano da Costa de Freitas
Título: ESTUDO DE UMA METODOLOGIA PARA ANÁLISE DE CLASSES DO TABACO POR PROCESSAMENTO DE IMAGENS
Defesa: 26 de fevereiro de 2018
Banca: Prof. Dr. Leonel Pablo Tedesco (Coordenador), Prof. Dr. Rolf Fredi Molz (Coorientador), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC) e Prof. Dr. Rodrigo da Silva Guerra (UFSM)
Resumo: Este trabalho propõe uma metodologia para classificações de imagens de folhas de tabaco curadas. Atualmente este procedimento ocorre de forma manual, não havendo algum procedimento comparativo automatizado para as classificações realizadas. Logo, afim de estruturar este trabalho, foi elaborado uma pesquisa bibliográfica sobre os trabalhos correlatados, que abrangem as técnicas conjuntas de análise multivariada e processamento de imagens para produtos agrícolas. Servindo como base de referência literária de aplicações, conforme as produções cientificas levantadas. Para a implementação deste método, apresenta-se uma técnica não invasiva ao produto agrícola, analisando-se 250 amostras de imagens digitais de tabaco Virginia nos modelos de cores RGB e HSV. A validação do trabalho foi desenvolvida empregando ferramentas de análise multivariada, seguido de algoritmos de data mining RNA, utilizando o modelo Multilayer Perceptron (MLP) e o classificador Backpropagation para treinamento. Com o intuito de apresentar uma análise qualitativa e quantitativa, das ferramentas e algoritmos propostos. Observando-se pelos resultados obtidos, a técnica de análise multivariada pode ser aplicada para este método, pelo fato de possuir um tempo de processamento computacional e tempo para análise de resultados mais rápido do que o data mining, adequando-se melhor a um processo em tempo real. Contudo, comparando-se os resultados de ambas as metodologias empregadas na validação, pode-se constatar que o método por data mining obteve melhores resultados de predição. Ambos os métodos empregados, tiveram melhores resultados adotando o modelo de cor RGB, atingindo correlações de 68% e 96% para o método de análise multivariada e data mining, respectivamente.
Palavras-chave: Análise multivariada, processamento de imagem, rede neural artificial, tabaco, mineração de dados.
Aluno: Amanda Brum de Carvalho
Título: RETENÇÃO DO CONHECIMENTO EM AMBIENTE COMPUTACIONAL PARA PROMOVER A CRIATIVIDADE E INOVAÇÃO NAS ORGANIZAÇÕES
Defesa: 27 de fevereiro de 2018
Banca: Prof. Dr. Ricardo Melo Czekster (Orientador), Prof.ª Dra. Rejane Frozza (Coorientador), Prof.ª Dra. Liane Mahlmann Kipper (UNISC) e Prof.ª Dra. Lisandra Manzoni Fontoura (UFSM)
Resumo: Novos desafios permeiam o ambiente organizacional exigindo que práticas de gestão sejam implementadas para amenizar o prejuízo que a perda de conhecimento pode representar para uma organização. As práticas de gestão precisam adequar-se às exigências atuais utilizando a tecnologia a seu favor e promovendo no ambiente organizacional, ações de aprendizagem. O aproveitamento das pesquisas nas diversas áreas, centrado nas capacidades cognitivas individuais, alia-se ao potencial de crescimento e manutenção sustentável de uma organização no gerenciamento do processo de aprendizagem. O conhecimento adquirido ao longo do tempo através de ações na busca de soluções para as mais diversas situações do dia a dia necessita tornar-se acessível, compartilhado e armazenado, a fim de acessá-lo como fonte de pesquisa, além de contribuir com novas informações, novos saberes. As competências cognitivas dos membros de uma organização podem ser potencializadas, disseminadas entre todos se a cultura organizacional incentivar o uso de ferramentas de comunicação aliadas à tecnologia. Incentivar a criatividade e a inovação na busca de tecnologias compatíveis com a necessidade de aprender e ensinar, bem como formas eficazes de retenção do conhecimento. O objetivo desta pesquisa foi de desenvolver um ambiente computacional para, futuramente, promover a criatividade e a inovação das organizações, com foco no módulo de retenção do conhecimento. O ambiente foi idealizado para que os usuários sejam parte da estrutura organizacional, livre das barreiras psicológicas que podem frear a capacidade criativa e participarem ativamente em processos de aprendizagem. Desta forma, contribuindo efetivamente em um processo de desenvolvimento de ideias inovadoras. O estudo utilizou a bibliometria quantitativa e qualitativa como recurso para determinar a relevância do tema em questão, ou seja, a retenção do conhecimento em organizações, a partir de estruturas de representação do conhecimento. Assim, foi possível encontrar pesquisadores que abordaram o tema, bem como estudiosos da área. Para o desenvolvimento do ambiente computacional foi definido um modelo de processo, além da definição das tecnologias utilizadas e da estrutura do banco de dados, chegando ao resultado: a ferramenta IdeiaWare que armazena e retém todas as ideias advindas dos membros de uma organização e todas as contribuições feitas até chegar ao resultado final, produto dos colaboradores de organizações. Um grupo de cinco usuários realizou avaliação da ferramenta desenvolvida. Neste processo de avaliação, foi proposto um roteiro de atividades para os usuários realizarem e um questionário cujo objetivo foi o de avaliar aspectos de usabilidade e as funcionalidades da ferramenta IdeiaWare. Analisados os resultados da avaliação, ajustes foram realizados na ferramenta, a fim de contemplar as melhorias indicadas pelos usuários.
Palavras-chave: Retenção de Conhecimento. Representação de Conhecimento. Ferramenta IdeiaWare.
Aluno: Andreia Jardim Colvero
Título: ANÁLISE DAS TÉCNICAS ERGONÔMICAS EMPREGADAS EM MARCENARIAS PARA PROPOSIÇÃO DE AÇÕES PARA MELHORIA NO PROCESSO PRODUTIVO
Defesa: 21 de dezembro de 2018
Banca: Prof.ª Dra. Liane Mahlmann Kipper (Orientadora), Prof. Dr. Jorge André Ribas Moraes (UNISC) e Prof.ª Dra. Ana Júlia Dal Forno (UFSC)
Resumo: As características ergonômicas de uma atividade são elementos fundamentais para o desempenho dos setores de produção, buscando atingir um funcionamento eficiente em quantidade e qualidade de produtos acabados. As condições de trabalho podem influenciar no aumento de produtividade, lucros, redução de perdas, além do conforto e segurança dos trabalhadores. Assim, foi realizado um estudo de caso múltiplo, em 03(três) marcenarias de pequeno porte situadas no estado do Rio Grande de do Sul, buscando compreender a realidade da jornada de trabalho dos marceneiros, através da observação das atividades executadas pelos mesmos e das informações obtidas nas entrevistas realizadas com os gestores dos processos produtivos para entender a sua percepção e grau de importância em relação aos aspectos ergonômicos inerentes nas atividades em marcenarias. A partir das análises dos dados coletados e dos estudos dos principais métodos ergonômicos aplicados no chão de fábrica de marcenarias, em especial as recomendações do NIOSH (National Institute for Occupational Safetyand Health), foi desenvolvida uma ferramenta de fácil aplicação pelos gestores na realização do acompanhamento ergonômico dos trabalhadores, respeitando as características de cada empresa e suas particularidades. O uso da ferramenta promove uma ação preventiva, pois indica a aplicação de uma intervenção com o objetivo de minimizar os desgastes sofridos durante a jornada de trabalho, proporcionando bem-estar, segurança e conforto ao funcionário. Acredita-se que esta ferramenta possa ser utilizada em outras indústrias que trabalham cm uma sistemática semelhante. Para sua generalização, sugere-se a realização de novos estudos da aplicação da ferramenta em outros segmentos industriais.
Palavras-chave: Indústria Moveleira; Análise Ergonômica; Ferramenta de Acompanhamento Ergonômico.
Aluno: Cristiano Marques Rocha
Título: ALGORITMO GENÉTICO CONSTRUTIVO E BUSCA TABU NA RESOLUÇÃO INTEGRADA DE PROBLEMAS DE ROTEIRIZAÇÃO E CARREGAMENTO DE VEÍCULOS
Defesa: 1º de outubro de 2018
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC) e Prof. Dr. Eugênio de Oliveira Simonetto (UFSM)
Resumo: Essa dissertação estuda na área logística o processo de roteirização de veículo, carregamento de veículos com limitação de carga bidimensional (2L-CVRP), mapeamento de reserva de área útil em veículo para armazenamento de itens, usando heurísticas conhecidas para integração dos processos. Considerando que a maioria dos artigos científicos tratam os problemas de forma não integrada, o que, pode trazer dificuldade na implementação prática, devido a dependência de um processo do outro, proporcionar dificuldades para tomadas de decisões dos gestores logísticos. Com conceito de integração dos processos e considerando as restrições e complexidade do problema que se apresenta na área científica como pesquisa operacional, foi criado um algoritmo baseado no Algoritmo Genético Construtivo para gerar soluções iniciais, refinando o processamento com método de Busca Tabu. Para avaliar o algoritmo proposto, foram usadas instâncias 2L-CVRP, as quais publicadas e amplamente testadas por pesquisadores citados nessa dissertação através de pesquisa bibliométrica. Os resultados mostram que houve igualdade de resultados em 18.89% das instâncias, 29.44% apresentaram resultados melhores entre as 5 classes problemas apresentados na literatura. Valores referentes a distância percorrida, tempo computacional e veículos em rota, apresentou resultados positivos numericamente em relação à literatura pela meta-heurística aplicada nesse algoritmo.
Palavras-chave: Algoritmo Genético Construtivo, Busca Tabu, Roteamento de Veículo, Carregamento de Veículo, 2L-CVRP.
Aluno: James Fagundes Carvalho
Título: GOVERNANÇA CORPORATIVA APLICADA À TECNOLOGIA DA INFORMAÇÃO: UMA VISÃO HÍBRIDA BASEADA EM COBIT E ITIL PARA ORGANIZAÇÕES DE PEQUENO PORTE
Defesa: 27 de abril de 2018
Banca: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. Claus Haetinger (UNIVATES)
Resumo: Tendo em vista os avanços tecnológicos e a participação cada vez mais estratégica dos setores de tecnologia nas empresas, torna-se necessário evidenciar o real desempenho destes departamentos. A dissertação aborda aspectos de governança e o uso de métodos multicritérios para apoio a decisão com o objetivo de responder a seguinte questão, como aplicar os conceitos de Governança de TI (Tecnologia da Informação) às empresas de pequeno porte? Neste contexto, foi realizado uma pesquisa na literatura e a composição de 20 processos híbridos de gerenciamento, utilizando os conceitos nativos do COBIT (Control Objectives for information and related technology) e do ITIL (Information Technology Infrastructure Library). Para identificar o ranking de importância destes gerenciamentos foi utilizado o MAUT (Multiatribute Utility Theory) para analisar os resultados de uma pesquisa aplicada a 100 pequenas empresas da região, caracterizando a metodologia como exploratória, apoiada por uma abordagem quantitativa. A relevância do tema se enquadra na linha de pesquisa de monitoramento, simulação e otimização de sistemas e processos industriais, contribuindo para a formação de competências e habilidades profissionais envolvidas em processos de implantação da Governança de TI. Os resultados encontrados possibilitaram explicitar que existe uma significativa inversão dos conceitos relacionados a governança, pois o ranking de importância dos gerenciamentos propostos evidenciam a priorização de aspectos mais operacionais em relação a aspectos voltados a governança.
Palavras-chave: Governança Corporativa. Governança de TI. COBIT. ITIL. MAUT.
Aluno: Lucas Flores Fetter
Título: APLICAÇÃO DA ESPECTROSCOPIA DE INFRAVERMELHO PARA AVALIAÇÃO DA DEGRADAÇÃO TÉRMICA DO ÓLEO DE SOJA EM PROCESSOS DE FRITURA INDUSTRIAL
Defesa: 27 de fevereiro de 2018
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Prof.ª Dra. Bruna Tischer (UNISC) e Prof.ª Dra. Aline Teichmann (UFRGS)
Resumo: A qualidade do óleo utilizado em processos de fritura influência diretamente na qualidade dos produtos obtidos. Todo óleo vegetal quando aquecido a altas temperaturas sofre reações químicas que alteram sua composição, influenciando principalmente nas características sensoriais, nutricionais e físico-químicas. Este estudo investigou a aplicação da espectroscopia de infravermelho com transformada de Fourier (FT-IR) com métodos de calibração multivariada para monitoramento da degradação do óleo de soja utilizado em processos industriais de fritura, determinando o índice de acidez e os materiais polares totais (TPM). Foram coletadas 114 amostras de óleo de soja durante o processo de fritura utilizado na indústria de snacks. Os espectros de infravermelhos (650-3200 cm-1) foram adquiridos usando um espectrômetro FT-IR usando o acessório de reflexão total atenuada (ATR), com uma resolução de 4 cm-1 e 16 varreduras. Os modelos de regressão de mínimos quadrados parciais (PLS) foram avaliados para a determinação individual e simultânea do índice de acidez e TPM, e os resultados foram comparados com os obtidos por métodos de referência. O modelo de calibração individual mostrou valores com padrão de erro de predição (SEP) de 0,09% (p/p) e 1,6% (p/p) para o índice de acidez e TPM, respectivamente. A determinação simultânea do índice de acidez e TPM mostrou valores de SEP de 0,17% (p/p) e 1,6% (p/p), respectivamente. Apesar do modo de calibração de determinação individual apresentar erros menores do que o previsto, não foram observadas diferenças significativas (p <0,05) entre os dois procedimentos e em relação aos respectivos métodos de referência. Esses resultados demonstram que o FT-IR combinado com técnicas de calibração multivariada pode ser usado no controle rotineiro da qualidade do óleo de soja em processos de fritura industriais.
Palavras-chave: óleo de fritura, infravermelho médio, índice de acidez, materiais polares totais, mínimos quadrados parciais
Aluno: Lucas Vinicius Reis
Título: DESENVOLVIMENTO DE MODELO DE MATURIDADE LEAN E GREEN: AVALIAÇÃO DA SINERGIA ATRAVÉS DE UMA PLATAFORMA ONLINE
Defesa: 28 de fevereiro de 2018
Banca: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Fáber Danilo Giraldo Velásquez (Coorientador), Prof.ª Dra. Rejane Frozza (Unisc) e Prof.ª Dra. Ana Julia Dal Forno (UFSC)
Resumo: Esta dissertação aborda as relações entre os sistemas de produção Lean e Green e apresenta um modelo de avaliação da sinergia entre esses sistemas produtivos. Através de revisão de literatura e do apoio de especialistas foram definidas as métricas para avaliar a integração Lean/Green no setor cafeteiro. A partir de tais métricas foi definido um sistema de cálculo que apresenta como resultado final o enquadramento da empresa em um dos cinco níveis de maturidade adaptados do modelo CMMI (Capability Maturity Model Integration). Para facilitar os cálculos e disponibilizar um meio digital para que a empresa possa armazenar os dados de suas análises uma plataforma online foi desenvolvida, a plataforma LGS (Lean Green Synergy) a qual leva o mesmo nome do modelo desenvolvido nesta pesquisa. Ao utilizar o modelo LGS as empresas podem identificar seu nível de maturidade e os aspectos que necessitam priorizar para alcançar melhores resultados. Para a validação do modelo foram utilizados dados coletados em propriedades produtoras de café localizadas no estado de Quindío, Colômbia e para a validação da plataforma, foi aplicado o método Delphi. O estudo contribui para a adoção conjunta dos sistemas Lean e Green além de estar alinhado a tendência da indústria 4.0, apresentando resultados que servem de base para pesquisas futuras que visem avaliar a integração Lean/Green em outros setores. Foram identificados 53 indicadores Lean/Green dos quais 18 foram selecionados para avaliar a maturidade no setor cafeteiro, que em conjunto com um questionário dividido em duas partes compõem as 20 métricas do LGS.
Palavras-chave: Lean. Green. Modelo LGS. Industria 4.0.
Aluno: Marcel Ritta Martins
Título: SISTEMA DE CONTROLE PREDITIVO BASEADO EM TÉCNICAS DE INTELIGÊNCIA ARTIFICIAL PARA UM SISTEMA DE CONDICIONAMENTO DE PRODUTO AGRÍCOLA
Defesa: 26 de fevereiro de 2018
Banca: Prof. Dr. Leonel Pablo Tedesco (Orientador), Prof. Dr. Jacques Nelson Corleta Schreiber (Coorientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Rodrigo da Silva Guerra (UFSM)
Resumo: A busca por melhorias nos processos industriais é fundamental, visando a necessidade de produtos com mais qualidade e homogeneidade. Assim se faz necessário o desenvolvimento de novas técnicas de sistemas de controle automáticos para ajuste e controle das variáveis críticas do processo. Controladores do tipo PID são o mais utilizados atualmente nos sistemas que realizam estes controles, mas devido a alguns processos mais complexos ou multivariados, a eficiência deste controlador pode não ser a ideal. Este estudo tem por objetivo desenvolver um controle preditivo de temperatura, utilizando técnicas computacionais, para manter a uniformidade de condicionamento de um produto agrícola. Para isso, após uma revisão da literatura realizada na base de periódicos Scopus, e com o uso de técnicas de data mining, um Neuro-PID foi modelado. Os procedimentos metodológicos deste estudo apresentam uma abordagem de pesquisa, combinada com coleta de informações de dados históricos do processo, extração de conhecimento destes dados e simulações. Como resultado deste estudo foi modelada uma rede neural artificial (ANN) capaz de aprender o comportamento do processo e predizer a temperatura de saída. Obteve-se com isso uma correlação entre a temperatura predita e real de 80% e comprovou-se capacidade deste estudo ser aplicado na prática, através de sua integração com um controlador lógico programável (CLP).
Palavras-chave: Sistemas multivariado, Controle de temperatura, Rede neural artificial, Mineração de dados
Aluno: Marina dos Santos Flores
Título: TÉCNICA DE STORYTELLING PARA GERAÇÃO DE CONHECIMENTO EXPLÍCITO EM UM AMBIENTE COMPUTACIONAL PARA CRIATIVIDADE E INOVAÇÃO NAS ORGANIZAÇÕES
Defesa: 27 de fevereiro de 2018
Banca: Prof.ª Dra. Rejane Frozza (Orientadora), Prof.ª Dra. Liane Mahlmann Kipper (UNISC) e Prof.ª Dra. Lisandra Manzoni Fontoura (UFSM)
Resumo: Criatividade, colaboração e aprendizagem organizacional são os novos trunfos das organizações modernas. São elementos que as capacitam para se tornarem competitivas e inovadoras em suas áreas de atuação. Organizações que procuram por um diferencial descobrem a importância do trabalho em equipe e a necessidade de investimentos em práticas e ferramentas que tragam inovação e melhoria em seus processos e produtos. Neste contexto, o Storytelling se apresenta com uma ferramenta de auxílio à estruturação dessas necessidades atuais. O termo é conceituado por alguns autores como o simples “ato de contar histórias”. No contexto deste trabalho, tem seu conceito complementado, como uma técnica para a transformação de ideias puramente escritas, em formas atrativas, criativas e de fácil compreensão, através de ferramentas gráficas para a sua ilustração, gerando conhecimento explícito (a história) a partir de conhecimento tácito (as ideias). A pesquisa foi norteada em torno da seguinte questão: Como a técnica de Storytelling pode ser útil para transformar conhecimento tácito em explícito nas Organizações? Para responder a esta questão, foram estruturados alguns objetivos, entre eles o de desenvolver uma ferramenta para a criação de Storytellings, e integrá-la ao Ambiente IdeiaWare, o qual dispõe de outros métodos com o mesmo propósito de inovação. A ferramenta desenvolvida, IdeiaWare, possui os módulos de Colaboração, Storytelling, Caixa de Ferramentas e Retenção do Conhecimento. Como metodologia foi utilizada a técnica de bibliometria para a busca dos principais trabalhos desenvolvidos na área envolvendo os termos de interesse deste projeto de pesquisa, e a técnica de Design Science Research como um guia para a estruturação de todo o estudo, o desenvolvimento da ferramenta, sua validação e testes. A avaliação da ferramenta IdeiaWare foi realizada com um grupo de cinco usuários, os quais responderam um questionário a partir de suas experiências na interação com a ferramenta. As respostas dos questionários foram avaliadas e serviram como base para ajustes e futuras complementações. O Storytelling se mostrou uma técnica de representação de conhecimento eficaz na formalização de ideias, contribuindo para a geração e disseminação do conhecimento explícito.
Palavras-chave: Colaboração, Aprendizagem Organizacional, Criatividade, Storytelling
Aluno: Mauricio Augusto da Silva Cunha
Título: MÉTODO DE GESTÃO ENERGÉTICA NA GERAÇÃO E UTILIZAÇÃO DE AR CONDICIONADO INDUSTRIAL
Defesa: 28 de setembro de 2018
Banca: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. Leonel Pablo Tedesco (Coorientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Rafael Rieder (UPF)
Resumo: A utilização constante e o aumento gradativo de condicionadores de ar, tanto em âmbito industrial quanto em menor escala, acarreta por sua consequência, em desperdícios na sua geração e consumo. Aplicada diretamente para condicionamento de produto produzido e/ou conforto térmico, incluindo taxas de renovação de ar, retomam a necessidade de otimização constante, pelo fato de que, geração e conversão de energia térmica, atrelam custo financeiro demasiado. O presente trabalho trata da otimização da geração e consumo do ar condicionado industrial, baseado em pesquisa ação aplicado em indústria de tabaco, objetivando reduzir os custos consequentes da geração e utilização de ar tratado termicamente. Técnicas de mineração de dados são aplicadas com o intuito de otimizar geração de insumos necessários para tratar o ar termicamente.
Palavras-chave: Ar Condicionado; Otimização; Mineração de Dados.
Aluno: Monica Lorena Tobon Clavijo
Título: PORTAFOLIO DE SERVICIOS EN USABILIDAD PARA SOPORTAR LA VISIÓN ESTRATÉGICA DE UN PARQUE TECNOLÓGICO ESTÁNDAR
Defesa: 03 de agosto de 2018
Banca: Prof. Dr. William Joseph Giraldo Orozco (Orientador – UniQuindío), Prof.ª Dra. Rejane Frozza (Orientadora – Unisc), Prof.ª Dra. María Lilí Villegas (Avaliadora UniQuindío), Prof. Dr. Julián Esteban Gutíerrez Posada (Avaliador UniQuindío) e Prof. Dr. César Collazos (Avaliador UniCauca)
Resumo: this document presents the results obtained after implementing a strategic surveillance process in order to respond to the research questions formulated in the framework of the research project: Portfolio of services in usability to support the strategic vision of a standard technology park. The strategic surveillance study described in this document considers the realization of a formal Technological Surveillance process, described in the UNE 166006: 2011 standard; through which they intend to present the advances in terms of scientific publications on the subject of interest, a competitive surveillance process is also carried out, where companies that provide usability services are identified and information is extracted on the services provided by said companies, Finally, a diagnosis is made of the users that are intended to reach the realization of the project's service portfolio. Nowadays many companies talk about usability and user experience, they even offer usability and user experience services, however, many of them do not have properly trained personnel to provide them. Many services in usability offered today lack appropriate theoretical bases, in many of them there is no clarity in the techniques, methods and methodologies used for their development and what could be worse, from the perspective of this work, is the misuse of language for the provision of UXUI services, usability for many companies providing these services, is limited to user research, without being clear that it is understood by user research and what techniques or methodologies are applied and in what moments of the development of a software product. In this work, a portfolio of usability services is defined that can be implemented in technology parks and whose purpose is to support their ventures in order to evaluate the usability of new products in the context of their future clients.
Palavras-chave: usability, service portfolio, technology parks, strategic surveillance, technological surveillance and competitive intelligence.
Aluno: Nairo Andre Jesus Sanches
Título: ALGORITMO GENÉTICO CONSTRUTIVO NA RESOLUÇÃO DE PROBLEMAS DE LAYOUT DE FACILIDADES EM FILA ÚNICA
Defesa: 1º de outubro de 2018
Banca: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC) e Prof. Dr. Eugênio de Oliveira Simonetto (UFSM)
Resumo: Este trabalho investiga o uso do Algoritmo Genético Construtivo (AGC) para gerar soluções de qualidade ao Problema de Layout de Facilidades em Fila Única (PLFFU). Inicialmente, convém mencionar que existem três tipos básicos de layout, sendo que diversas variações e combinações desses três tipos podem ser realizadas, seguindo as necessidades de cada processo. Os principais tipos de layout são por processo ou funcional, em linha e celular. Através da resolução de problemas de layout, busca-se minimizar custos de movimentação, reduzir a obstrução de materiais e pessoas, desenvolver a segurança, a comunicação entre os departamentos e aumentar a eficácia das máquinas e da mão de obra, a fim de apoiar a flexibilidade do processo produtivo. O tipo de arranjo físico estudado neste trabalho é o layout em linha ou em fila, também denominado PLFFU, no qual máquinas e/ou postos de trabalho são posicionados de acordo com a sequência dos procedimentos, a fim de que estes sejam realizados de acordo com a ordem determinada, sem caminhos alternativos. O PLFFU é um importante problema que surge nas organizações industriais que têm demandas e mudanças tecnológicas que impõem frequentes alterações no processo fabril. Trata-se de um problema combinatorial, classificado como NP-completo; nesse sentido ao longo das últimas décadas, algoritmos exatos e aproximativos têm sido empregados na busca de soluções de melhor qualidade. Neste trabalho é proposto o AGC – um algoritmo inspirado no clássico Algoritmo Genético, mas com importante inovação quanto à avaliação de soluções parciais – para a resolução do problema. Ele se mostrou eficiente na otimização de um grande número de problemas combinatórias e também no presente trabalho. Para avaliar a qualidade do AGC, este foi empregado em 58 instâncias clássicas da literatura. Nesse universo, o algoritmo obteve a solução ótima em 47 casos e, quando comparado às soluções obtidas por outros autores, mostrou qualidade superior.
Palavras-chave: Problema de Layout em Fila Única. Algoritmo Genético Construtivo. Meta-heurísticas.
Aluno: Paula Freitas Filoda
Título: DESENVOLVIMENTO DE UMA METODOLOGIA DE IDENTIFICAÇÃO DE AZEITE DE OLIVA ADULTERADO COM ÓLEOS VEGETAIS POR ESPECTROSCOPIA NO INFRAVERMELHO
Defesa: 27 de fevereiro de 2018
Banca: Prof. Dr. Adilson Ben da Costa (Orientador), Prof.ª Dra. Bruna Tischer (UNISC) e Prof.ª Dra. Aline Teichmann (UFRGS)
Resumo: O azeite de oliva é normalmente o óleo mais caro entre os óleos de origem vegetal, devido aos custos do processo de cultivo, colheita e extração do óleo, tornando sua produção limitada em relação a outros tipos de óleos vegetais comestíveis. Desta forma, o azeite de oliva possui elevado valor de mercado, tornando-se alvo constante de adulterações, sendo o tipo de fraude mais comum a adição de outros óleos vegetais de menor valor comercial. Os métodos tradicionais de detecção de adulteração, geralmente são demorados, com morosas etapas de preparo de amostra e com baixa capacidade de processamento de amostra. Neste contexto, este estudo visou investigar a aplicação da espectroscopia no infravermelho com transformada de Fourier (FT-IR) aliada a algoritmos de regressão parcial (PLS) para identificação rápida de azeite de oliva extra virgem adulterado com diferentes óleos vegetais (óleo de soja, girassol, milho e canola). Para isso, dois modelos de regressão multivariada foram desenvolvidos, um para a determinação simultânea da concentração dos principais ácidos graxos indicadores de adulteração (oleico, linoleico e linolênico), e o outro, para a predição do percentual de adulteração de amostras de azeite de oliva extra virgem, independentemente do óleo adulterante, de maneira que fosse possível indicar quais amostras seriam suspeitas de estarem adulteradas. Desta forma, os resultados para a predição simultânea dos ácidos graxos não apresentaram diferenças significativas em relação a metodologia de referência, sendo obtidos valores para o Erro Médio Quadrático de Predição (RMSEP) de 4.44, 1.92 e 0.62% para os ácidos oleico, linoleico e linolênico, respectivamente. Além disso, o modelo para indicar as amostras suspeitas de adulteração, bem como, seus percentuais de adulteração, apresentou um Erro Médio de Validação Cruzada (RMSECV) de 0.22%. Assim, o procedimento de análise proposto caracterizou-se por apresentar um excelente potencial para ser utilizado em fiscalizações, uma vez que possui alta capacidade de processamento de amostras, podendo ser empregado para uma triagem rápida onde recaem suspeitas de incidência de fraudes. Adicionalmente, tal metodologia de análise corrobora com os princípios da química analítica verde, uma vez que nenhum pré-tratamento de amostra foi necessário e uma menor quantidade de resíduo químico foi produzido em relação ao método convencional, fornecendo uma alternativa altamente conveniente em termos de economia de tempo e solvente para a avaliação da pureza do azeite de oliva extra virgem.
Palavras-chave: azeite de oliva extra virgem, adulteração, FTIR, PLS, seleção de variáveis, química analítica verde
Aluno: Robson Farias
Título: SISTEMA DE RECOMENDAÇÃO DE OBJETOS DE APRENDIZAGEM PELO MÉTODO DE CLUSTERIZAÇÃO
Defesa: 18 de abril de 2018
Banca: Prof.ª Dra. Rejane Frozza (Orientadora), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. João Luis Tavares da Silva (UniFtec)
Resumo: Atualmente está cada vez mais fácil gerar e armazenar informações. Buscar um conteúdo específico em uma base de dados, com a quantidade de informações cada vez mais elevada, pode se tornar algo exaustivo, desestimulando os usuários nesta busca. Este trabalho apresenta um estudo das técnicas de recomendação, com o objetivo de desenvolver um sistema que faça recomendações de Objetos de Aprendizagem (OAs), com base em um acervo incremental, conforme os interesses do usuário, utilizando clusterização. Assim, pretende-se diminuir a exaustividade da busca e mostrar um conteúdo que desafie as pessoas a ler e conhecer mais sobre assuntos de seu interesse. O sistema utiliza uma recomendação baseada em técnica colaborativa, auxiliada por uma estratégia de recomendação baseada em clusterização no processo de tomada de decisão. A pesquisa teve como principal foco a seguinte questão: Como a clusterização pode ser útil para auxiliar um sistema de recomendação a apresentar recomendações de qualidade aos usuários que estivessem buscando Objetos de Aprendizagem? Para responder à questão, foram estruturados alguns objetivos, entre eles o de desenvolver sistema para fazer recomendações de OAs para os usuários, cuja estratégia utiliza uma técnica de clusterização, com a lógica do processo elaborada pelos autores. Como metodologia foi utilizada a técnica de bibliometria para a busca de alguns trabalhos desenvolvidos na área envolvendo os termos de interesse do tema de pesquisa. A avaliação do sistema foi realizada com um grupo de dezenove usuários, que tiveram a oportunidade de buscar e avaliar por OAs cadastrados no sistema, recebendo recomendações durante as buscas. Para cada recomendação apresentada, o usuário tinha a oportunidade de avaliar essa recomendação, servindo como feedback para novas buscas. Feedbacks sobre a usabilidade do sistema também foram recebidos e considerados para atualizações. A clusterização se mostrou uma técnica eficaz no agrupamento de interesses comuns entre os usuários, auxiliando no processo de recomendação e contribuindo para a redução de conteúdo irrelevante apresentado em resultados de pesquisa.
Palavras-chave: Sistema de Recomendação, Recomendação de Objetos de Aprendizagem, Clusterização
Aluno: Diane Cristina Sordi
Título: TAXA GLOBAL DA COMPETITIVIDADE EM ÁREA DE SAÚDE E SEGURANÇA DO TRABALHO EM INDÚSTRIAS FRIGORÍFICAS DA REGIÃO SUL DO BRASIL
Defesa: 22 de fevereiro de 2017
Banca: Dr. Elpidio Oscar Benitez Nara (Orientador), Dr. Jacques Nelson Corleta Schreiber (UNISC) e Dr. Leonardo Nabaes Romano (UFSM)
Resumo: Este trabalho propõe a determinação da taxa global de a competitividade na área de saúde e segurança do trabalho em frigoríficos da região sul do Brasil. As taxas globais de competitividade (TGC) foram elaboradas a partir da Norma Regulamentadora 36 do Ministério do Trabalho do Brasil e estruturados em forma de survey a fim de que especialistas e profissionais da área frigorífica da região Sul do Brasil pudessem identificar o nível de importância e de atendimento a estes indicadores, em virtude desta região ser onde se concentra o maior número de empresas frigoríficas no país. Para a amostragem foram selecionados os 146 frigoríficos da região sul credenciados pelo Ministério da Agricultura e Agropecuária e cujas instalações possuem fiscalização do Serviço de Inspeção Federal (SIF). Foram enviados 86 questionários (58%) e obteve-se 35 respostas. Posteriormente os resultados dos surveys aplicados foram tabelados a fim de encontrar a média dos valores de cada questão. Com a média das questões dos representantes das empresas frigoríficas, foi aplicada a metodologia Multiple Attribute Utility Theory (MAUT). A partir da aplicação da metodologia foram encontrados os valores das taxas local de cada indicador. Após a construção das taxas locais homogêneas foram construídas as taxas globais de competitividade. Com estas taxas, pode-se encontrar os indicadores chave de desempenho de maior relevância, podendo ranquear estes indicadores, identificar e visualizar as diferenças de importância relativa entre eles, criar modelagens que permitam expressar o status de atendimento, auxiliando a tomada de decisões. A Taxa Global de Competitividade resultou em 2,94% Através da análise da taxa de competitividade das empresas pode-se identificar as demandas da área de saúde e segurança do trabalho em frigoríficos, demonstrando se há necessidades urgentes na gestão destas indústrias, podendo se valer de ferramentas que mensurem o desempenho e auxilie nas tomadas de decisão.
Palavras-chave: Taxa global de competitividade, método multicritério, Saúde e Segurança do Trabalho em frigoríficos
______________________________________________
Aluno: Eduardo Fernando Watte
Título: TAXA GLOBAL DE COMPETITIVIDADE PARA HOSPITAIS FILANTRÓPICOS DO ESTADO DO RIO GRANDE DO SUL
Defesa: 31 de março de 2017
Banca: Dr. Elpidio Oscar Benitez Nara (Orientador), Dr. Ricardo Melo Czekster (Coorientador), Dr. João Carlos Furtado (UNISC) e Dr. Miguel Afonso Sellitto (UNISINOS)
Resumo: A proposta desta dissertação é a determinação da taxa global de a competitividade dos hospitais filantrópicos do estado do Rio Grande do Sul. As taxas globais de competitividade (TGC) foram estimadas a partir de indicadores estipulados pela Agência Nacional de Saúde Suplementar (ANS) através da resolução normativa Nº 405/2016 e encaminhado aos gestores hospitalares na forma de survey com o intuito de identificar o nível de competitividade entre os hospitais e estipular um indicador base como referência de competitividade no âmbito estrutural e empresarial. A metodologia de análise dos dados está classificada como qualitativa e quantitativa, uma vez que existe tratamento estatístico das informações. Para a amostragem foram selecionados os 220 hospitais filantrópicos do Rio Grande do Sul, onde foram enviados 154 questionários, o que representa 70% dos hospitais, obtendo 75 respostas. Em seguida os resultados recebidos foram tabulados encontrando a média dos valores de cada questão para a aplicação do método de análise multicritério Multiple Attribute Utility Theory (MAUT). A partir da aplicação da metodologia foram encontrados os valores das taxas de substituição de cada indicador e, em seguida, a construção das taxas globais de competitividade. A Taxa Global de Competitividade (TGC) revelada através da análise resultou em um indicador de 3,3924 como indicador base para a avaliação dos níveis de aderência dos hospitais a este indicador, servindo como ferramenta para a tomada de decisão e como medida de ações de melhorias mediante mensuração de desempenho.
Palavras-chave: Taxa global de competitividade, método multicritério MAUT, hospitais filantrópicos
______________________________________________
Aluno: Fábio Moacir Hoffmann
Título: SISTEMA DE RASTREAMENTO SOLAR PARA PAINEL FOTOVOLTAICO
Defesa: 24 de fevereiro de 2017
Banca: Dr. Leonel Pablo Tedesco (Orientador), Dr. Rolf Fredi Molz (Coorientador), Dr. Elpidio Oscar Benitez Nara (UNISC) e Dr. João Baptista dos Santos Martins (UFSM)
Resumo: As preocupações quanto à poluição e esgotamento das fontes tradicionais e o aumento no consumo de energia tem direcionado os interesses para o uso de energias renováveis. A energia fotovoltaica apresenta vantagens como baixo custo de manutenção, possibilidade de instalação em localidades remotas além de não gerar impactos ambientais durante a operação. No entanto, o custo da energia fotovoltaica é superior às fontes tradicionais, entre outros motivos, devido às perdas de irradiação. O objetivo desse trabalho foi desenvolver um seguidor solar de dois eixos e avaliar o desempenho do painel fotovoltaico em relação a um sistema fixo. O seguidor usa LDRs para identificar a direção do sol e os motores ajustam a posição do painel controlados por uma placa eletrônica. Cada sistema é composto por uma estrutura mecânica, um painel fotovoltaico e uma carga de resistores. Os motores foram controlados por uma placa eletrônica, que também mediu e armazenou as informações de luminosidade e irradiação sobre os painéis. A avaliação dos dois sistemas ocorreu durante 152 dias, no período de junho a novembro de 2016. O painel com seguidor mostrou ganhos de irradiação média mensal de 17,20% a 31,1%, indicando ser uma alternativa para tornar a energia fotovoltaica mais atrativa.
Palavras-chave: Energia renovável, energia solar, fotovoltaica, rastreador solar, estratégia de rastreamento
_______________________________________________
Aluno: Guilherme Alfredo Redeker
Título: UTILIZAÇÃO DE COMUNICAÇÃO ENXUTA EM AMBIENTE HOSPITALAR: UMA PROPOSTA DE MÉTODO LEAN HEALTHCARE INFORMATION
Defesa: 24 de fevereiro de 2017
Banca: Dra. Liane Mählmann Kipper (Orientadora), Dra. Rejane Frozza (UNISC) e Dr. Daniel Pacheco Lacerda (UNISINOS)
Resumo: Esse trabalho apresenta uma proposta de método para análise e melhoria de processos de comunicação em ambiente hospitalar. Por meio de melhorias no fluxo de comunicação centrado no paciente, eliminando desperdícios, retrabalho e tempo, visa tornar o processo de comunicação mais enxuto e assertivo. O método foi desenvolvido a partir dos princípios de Lean Information e Lean Healthcare, mesclando os princípios adotados nas metodologias, sendo denominado de Lean Healthcare Information. Para a concepção do trabalho, utilizou-se a metodologia de Design Science Research, sendo criada uma solução denominada de artefato que nesse estudo refere-se ao método proposto, tendo duas características principais: relevância e novidade que visa resolver um problema relevante de forma inovadora. Para validar o método, o mesmo foi aplicado em uma unidade de pronto atendimento com problemas de comunicação com um laboratório de análises clínicas. A unidade atende uma grande demanda de pacientes, consequentemente gera um grande fluxo de informações. Especificamente o método foi aplicado no processo de solicitação e resultado de exames laboratoriais, devido à demora em receber o resultado a partir da solicitação dos exames. Na aplicação do método foram definidos indicadores para analisar a capacidade do processo e determinar se o mesmo atingiu as métricas definidas. Os resultados apresentaram melhorias de tempo no processo de comunicação e aumento na capacidade de atingir plenamente as métricas propostas de tempo de coleta de material e de liberação do laudo do exame. Aplicação do método no processo de comunicação entre a unidade de pronto atendimento e o laboratório, diminuiu em 10% o tempo de espera na coleta de material para exame e 30% no tempo de liberação de laudos pelo laboratório. A evolução da capacidade do processo conforme o índice cpk, na atividade coleta foi de 0,25 para 1,72 e na atividade de liberação de laudo de -0,18 para 1,14.
Palavras-chave: Informação enxuta. Cuidados de saúde enxuto. Design Science Research
_______________________________________________
Aluno: Guilherme Schmidt
Título: GERENCIAMENTO VISANDO EFICIÊNCIA ENERGÉTICA EM UMA INSTITUÇÃO DE ENSINO SUPERIOR
Defesa: 29 de agosto de 2017
Banca: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. Leonel Pablo Tedesco (Coorientador), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. Rafael Rieder (UPF)
Resumo: Os recentes avanços no campo da tecnologia da informação possibilitaram que grandes volumes de dados pudessem ser acumulados e processados de modo mais rápido e eficiente. Agora, o questionamento está orientado na competência da análise dos bancos de dados disponíveis, de modo a apurar e encontrar informações que realmente tenham utilidade prática. O aglomerado de informações e variáveis que tangenciam a demanda, consumo e desperdício de energia elétrica é vasta. Para promover a otimização do uso da energia elétrica é fundamental identificar os meios por quais são geradas as suas perdas. Todavia identificar as oportunidades de poupança de energia a partir de um conjunto de dados pode não ser tão simples. As ferramentas e algoritmos de mineração de dados auxiliam na descoberta de informações úteis, que inclusive podem embasar ações de gestão para economia de energia. O superdimensionamento de insumos energéticos é comum e também uma oportunidade para o combate ao desperdício de energia elétrica. Esta dissertação tem o objetivo verificar as informações e variáveis que definem o dimensionamento de insumos energéticos em uma instituição de ensino superior, sobre a perspectiva de analise apoiada na descoberta de informações, tendências ou padrões propiciados pelo emprego e aplicação de técnicas e metodologias de mineração de dados.
Palavras-chave: Gestão energética, insumos energéticos, mineração de dados, Apriori, WEKA.
_______________________________________________
Aluno: Henrique Hesse
Título: QUANTIFICAÇÃO SIMULTÂNEA DO PERFIL GLICOLIPÊMICO POR ESPECTROSCOPIA NO INFRAVERMELHO UTILIZANDO REDE NEURAL ARTIFICIAL
Defesa: 22 de fevereiro de 2017
Banca: Dra. Rejane Frozza (Orientadora), Dr. Valeriano Antônio Corbellini (Coorientador), Dr. Adilson Ben da Costa (UNISC) e Dr. Roberto dos Santos Rabello (UPF)
Resumo: O sangue possui diversos componentes de suma importância para o corpo humano, sendo um dos principais constituintes do sistema vascular humano. Compostos como a glicose, triacilgliceróis, colesterol total, lipoproteína de alta densidade (HDL) e lipoproteína de baixa densidade (LDL) compõem o perfil glicolipêmico. Esse perfil é analisado por reações bioquímicas que utilizam diferentes reagentes químicos para tais análises. Assim, o presente trabalho tem como objetivo desenvolver uma nova metodologia para a quantificação simultânea do perfil glicolipêmico utilizando técnicas de espectroscopia no infravermelho e rede neural artificial (RNA), com a proposta de utilizar métodos computacionais como alternativa aos métodos químicos e bioquímicos. A metodologia empregada utilizou 5 μL de sangue em 100 mg de brometo de potássio para a obtenção dos espectros de infravermelho pela técnica de reflectância difusa. Os dados obtidos pelo infravermelho foram tratados pela seleção de regiões específicas e aplicado o algoritmo de análise por componentes principais para a redução da dimensionalidade dos dados para, então, utilizar as RNAs. Os resultados das RNAs configuradas se mostraram mais eficientes quando utilizadas funções de transferência do tipo tangente hiperbólica com algoritmo de treinamento de Levenberg-Marquardt. Os valores de correlação alcançados no último treinamento foram de: Treinamento 0,92586; Validação 0,9325; Teste 0,91219; Geral 0,92481. A configuração final da RNA produziu um erro médio quadrado (MSE, mean squared error) de 5,3 na predição do perfil glicídico e lipídico do sangue. Esses resultados indicam que a utilização de RNAs para predição do perfil glicolipêmico é viável e pode ser aperfeiçoada.
Palavras-chave: Rede neural artificial; Espectroscopia no infravermelho; Perfil Glicolipêmico; Quimiometria; Sangue.
_____________________________________________
Aluno: Henrique Schwengber
Título: ANÁLISE DO NÍVEL DE PRODUTIVIDADE E EFICIÊNCIA EM UMA ORGANIZAÇÃO PARA UMA PRODUÇÃO ENXUTA A PARTIR DO USO DO INDICADOR OEE E ANÁLISE DE VARIÂNCIA
Defesa: 19 de junho de 2017
Banca: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Elipidio Oscar Benitez Nara (UNISC) e Prof.ª Dra. Ana Júlia Dal Forno (UFSC)
Resumo: Para atender as necessidades dos clientes as organizações veem buscando maneiras de planejamento e execução do processo produtivo, de maneira que esse processo se torne mais ágil e enxuto. Um processo produtivo bem estruturado, com produtividade adequada às demandas dos clientes, eficiente e com menores prazos de entrega, são uns dos principais desafios das organizações para alcançar a competitividade. A pesquisa tem como objetivo verificar o nível de eficiência, gerenciamento da produtividade e identificação de desperdícios em processo com mix de produtos, por meio da análise da variabilidade do índice global de desempenho da fábrica para uma produção enxuta. Para isso foi utilizado o indicador Overall Equipment Effectiveness (OEE) e a análise de variância para monitoramento do indicador. A metodologia se caracteriza por uma pesquisa exploratória e descritiva, com procedimento de pesquisa-ação quantitativo e qualitativo, realizando a observação direta no chão da fábrica para coleta de dados. O indicador OEE foi implantado no processo de produção e foram analisados os dados relativos à eficiência, produtividade, qualidade e o indicador OEE, nos meses de abril até outubro de 2016 com o objetivo de identificar a máquina gargalo. Foi apontado o gargalo no setor da marcenaria com 43,47% do índice OEE e na máquina CNC madeira (máquina gargalo) com 56,47% do OEE. As principais paradas identificadas foram setup, produção sem ordem de produção e tempo ocioso, as quais são responsáveis por 54,62% do tempo perdido da eficiência. Para análise da variância para o indicador OEE foi analisada a diferença significativa nas médias entre os setores, para eficiência foi analisada a diferença significativa entre os setores e meses (abril a outubro/2016) analisados. Para produtividade foi verificada a diferença significativa nas médias somente nos setores. Foram identificadas as seis perdas da máquina gargalo e relacionadas com os desperdícios da manufatura enxuta, sendo proposta uma diminuição do setup e com isso um aumento de 214 minutos de operação a mais no mês de trabalho.
Palavras-chave: OEE em processos com mix de produtos, análise variância, manufatura enxuta, manutenção, eficiência
_____________________________________________
Aluno: Ivan Luis Suptitz
Título: FERRAMENTA PARA MODELAGEM DE SISTEMAS DE REDES NEURAIS ARTIFICIAIS COM LÓGICA FUZZY E PROCESSAMENTO DE IMAGENS PARA A INDÚSTRIA
Defesa: 22 de fevereiro de 2017
Banca: Dr. Rolf Fredi Molz (Orientador), Dra. Rejane Frozza (Coorientadora), Dr. Ricardo Melo Czekster (UNISC) e Dr. Roberto dos Santos Rabello (UPF)
Resumo: Neste trabalho, foi desenvolvida uma ferramenta de modelagem para classificação de imagens utilizando redes neurais artificiais (RNA) e lógica difusa (fuzzy), voltada ao cenário industrial. Inicialmente, foi realizado um levantamento de ferramentas de modelagem de RNA e neuro-fuzzy. Em seguida, foi realizada uma pesquisa do tipo survey na qual se identificou que as indústrias desconhecem ou não sabem como aplicar estas tecnologias em seus processos e negócios. A partir disso, foi desenvolvida a ferramenta denominada Processador de Imagens Neuro-Fuzzy para a Indústria (PINFI) com base nas demandas do survey realizado e integrando bibliotecas de software de código aberto pesquisadas no levantamento bibliográfico. Esta ferramenta permite a modelagem de projetos em cinco etapas: Aquisição das imagens; pré-processamento; bloco de fuzzificação; modelagem da RNA; e a apresentação dos resultados (saída). O PINFI foi validado em termos de ergonomia e usabilidade de software atendendo a 91% dos requisitos de usabilidade. Também foi validado quanto à acurácia de reconhecimento do classificador, atingindo taxas de reconhecimento de 93% a 100% nas bases avaliadas. Foram utilizadas bases de imagens de folhas de tabaco, rodas de veículos e faces humanas, o que possibilitou demonstrar que o PINFI é uma ferramenta de aplicação genérica.
Palavras-chave: Redes neurais artificiais; lógica fuzzy, processamento de imagens, ferramenta de modelagem.
_______________________________________________
Aluno: Júlio Eduardo Forster
Título: UMA PROPOSTA DE SISTEMA DE MONITORAMENTO EMBARCADO PARA AERONAVES DE PEQUENO PORTE
Defesa: 31 de março de 2017
Banca: Dr. Ricardo Melo Czekster (Orientador), Dr. Leonel Pablo Tedesco (Coorientador), Dr. João Carlos Furtado (UNISC) e Dr. Moacir Eckhardt (UFSM)
Resumo: A eletrônica embarcada de aeronaves não tripuladas de categorias sofisticadas, como Tactical UAVs, utilizam sistemas para monitoramento de características como energia e velocidade, de forma a tornar mais qualificada a realização de missões. Equipamentos comerciais que comportam sensores utilizados nestas aeronaves possuem custo elevado e código fechado, o que dificulta a exploração de melhorias e adaptações de projeto. O objetivo desta dissertação é apresentar um projeto de sensoriamento para aeronaves de pequeno porte não tripuladas baseado em plataformas de computação embarcada de baixo custo. No desenvolvimento das aeronaves em conjunto com o projeto Aerodesign, foram realizados experimentos em bancadas com servos motores e motor propulsor, sendo utilizados diferentes tipos de sensores, com o intuito de avaliar parâmetros de eficiência energética de acordo com diferentes quantidades de carga. Realizando também ensaios virtuais, que foi possível calcular as demandas necessárias para os voos e assim projetar um sistema de controle para a aeronave otimizada, validando os projetos em diversos ensaios de voos em 2015 e 2016. Resultando no projeto da aeronave de 2016 com um consumo menor de energia e peso eletrônico inferior a aeronave projetada sem o sistema embarcado, além de um projeto embarcado para monitoramento de dados de voo.
Palavras-chave: Sistema embarcado, aeronave não tripulada e energia
_______________________________________________
Aluno: Marcelo de Barros
Título: DESENVOLVIMENTO DE SOFTWARE PARA MONITORAMENTO DE ANÁLISES ENTALPIMÉTRICAS BASEADO NO PROCESSAMENTO DE IMAGENS
Defesa: 21 de julho de 2017
Banca: Prof. Dr. Leonel Pablo Tedesco (Orientador), Prof. Dr. Adilson Ben da Costa (Coorientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Juliano Smanioto Barin (UFSM).
Resumo: A TIE, entalpimetria no infravermelho (Thermal Infrared Enthalpimetry), tem sido utilizada na determinação de vários compostos em alimentos e fármacos, empregando, principalmente, reações de neutralização, complexação, precipitação e oxirredução. A variação da temperatura gerada nestas reações é verificada por meio de câmeras termográficas que operam no infravermelho, as quais monitoram a temperatura superficial da amostra, possibilitando construir curvas de calibração a partir da concentração do composto de interesse e da variação de temperatura gerada na reação em questão. Até o momento, não há na literatura trabalhos em que a aquisição dos valores de variação de temperatura tenha sido feita com o uso de softwares e a obtenção manual dos resultados é a etapa que tem dificultado a determinação rápida da concentração do analito em questão. Através da verificação da necessidade de melhorar a aquisição dos resultados na TIE, no presente trabalho foi feito o desenvolvimento de uma ferramenta computacional denominada TIES (do inglês Thermal Infrared Enthalpimetry Software), a qual foi otimizada e implementada como o uso de processamento de imagens para determinação da temperatura gerada nas reações de neutralização, na determinação da acidez total de vinagres de álcool, maçã e vinho tinto. Através da ferramenta desenvolvida foi possível analisar a reação entalpimétrica através de um gráfico gerado a partir do processamento de vídeo e de imagens. Desta forma, foi possível capturar a temperatura inicial (Ti) e a temperatura final (Tf) da reação, de forma a obter a diferença de temperaturas do processo (∆T) automaticamente. Ao final da análise, foram gerados relatórios com informações obtidas a partir das imagens das reações. Este procedimento pode ser aplicado em processos com múltiplas áreas simultaneamente denominado de MultiChannel. Como forma de validar os resultados do software, os mesmos conjuntos de dados foram analisados utilizando o método de referência e o software Research IR FLIR, sendo que seus resultados apresentaram um coeficiente de determinação R² > 0,98 para o processamento com vídeo e um R² > 0,99 para processamento por imagens.
Palavras-chave: Software entalpimétrico, Processamento de imagens, Câmeras termográficas.
_______________________________________________
Aluno: Thaisi dos Santos Fagundes
Título: MODELOS PARA ELABORAÇÃO DE CONTEÚDOS EM AMBIENTES VIRTUAIS DE APRENDIZAGEM BASEADOS NA RELAÇÃO ENTRE TÁTICAS DE ENSINO E ESTILOS COGNITIVOS DE APRENDIZAGEM
Defesa: 17 de fevereiro de 2017
Banca: Dra. Rejane Frozza (Orientadora), Dra. Liane Mählmann Kipper (Coorientadora), Dr. Marcus Vinícius Castro Witczak (UNISC) e Dra. Adriana Soares Pereira (UFSM)
Resumo: Em Ambientes Virtuais de Aprendizagem (AVA) o processo de ensino-aprendizagem ocorre durante a interação entre usuários e o ambiente. Cada pessoa possui suas preferências pessoais durante este processo, no seu modo de pensar, relembrar ou resolver problemas, estando a qualidade deste aprendizado diretamente associadas à compatibilidade do material oferecido nos ambientes de aprendizagem (FELDER e SILVERMAN, 1988). A identificação das preferências pessoais pode ser realizada através dos estilos cognitivos de aprendizagem (ECAs) de cada sujeito. Os ECAs podem ser identificados por diversos modelos, estando o modelo proposto por Felder e Silverman (1988) entre os mais aplicados no aprendizado em AVAs. Após a identificação dos ECAs é necessário que o sujeito tenha acesso a materiais didáticos de acordo com as características apropriadas ao seu estilo. O objetivo deste trabalho é propor modelos para elaboração de conteúdos em ambientes virtuais de aprendizagem baseados na relação entre Táticas de Ensino e Estilos Cognitivos de Aprendizagem, a fim de auxiliar a interação com AVAs que identificam os ECAs dos usuários. A metodologia empregada para o desenvolvimento desta pesquisa envolveu estudo e análise das características dos Estilos Cognitivos de Aprendizagem (ECAs) e das táticas de ensino; identificação da relação entre os ECAs de diferentes autores; a identificação das táticas de ensino utilizadas em AVAs; desenvolvimento de modelos para elaboração de conteúdos em AVAs baseados na relação entre táticas de ensino e estilos cognitivos de aprendizagem. Para cada ECA desenvolvido por Felder e Silverman (1988) foi proposto um modelo contemplando em sua composição os conjuntos de táticas de ensino que melhor se ajustam às preferências pessoais dos usuários. Os modelos propostos contemplam táticas de ensino que promovem o uso de elementos que mais se destacam em cada ECA definido por Felder e Silverman (1988).
Palavras-chave: Ambientes virtuais de aprendizagem, Táticas de ensino, Estilos cognitivos de aprendizagem.
Aluno: Aline Graziele Ferrari
Titulo: SISTEMA INTELIGENTE PARA RETENÇÃO DO CONHECIMENTO E APOIO NA TOMADA DE DECISÃO NO PROCESSO DE COMPOSIÇÃO DO BLEND NA PERSPECTIVA DO CLIENTE
Defesa: 26 de fevereiro de 2016
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (Orientadora),Prof.ª Dra. Rejane Frozza (Coorientadora),Prof. Dr. Elpidio Oscar Benitez Nara (UNISC),Prof. Dr. Miguel Afonso Sellitto (UNISINOS)
Resumo: Em virtude da crescente oferta de bens e serviços e estagnação da demanda, a concorrência aumenta em um ritmo frenético. As organizações precisam se adaptar e identificar formas de atender de maneira ágil e assertiva todas essas novas exigências. O conhecimento passa a ser um bem valiosíssimo e precisa estar à disposição da organização. Nesse contexto, esta pesquisa buscou o desenvolvimento de um sistema inteligente que retenha o conhecimento do especialista humano de Planejamento e Controle da Produção (PCP), tornando-o explícito e que proporcione apoio no processo de tomada de decisão no planejamento e programação da produção do blend, possibilitando agilidade e assertividade à decisão. Para a realização do trabalho proposto foi necessário definir e aplicar uma metodologia, que envolveu os procedimentos metodológicos de planejamento da pesquisa; coleta de dados; análise dos dados e planejamento das ações; modelagem computacional e avaliação dos resultados. A análise de trabalhos relacionados ao tema desta pesquisa também fizeram parte da metodologia proposta. O sistema computacional foi desenvolvido utilizando todo o conhecimento e experiência do especialista humano da área de PCP, conhecimento este que passa a partir de então a ficar armazenado em uma base de dados. Dos resultados encontramos destacamos que em relação aos tempos alocados, o sistema baseado em conhecimento apresentou desempenho superior, onde para realizar todo o fluxo de planejamento do blend e atendimento de um pedido, o tempo despendido foi de 32 minutos, enquanto que na forma atual o tempo despendido era de 73 minutos. E relação à tomada de decisão, o sistema apresenta eficiência e agilidade, pois, com seu uso, o especialista consegue em 2 minutos decidir com qual blend fará o seu planejamento da produção e atendimento do pedido e consegue decidir também se vai postergar o atendimento do pedido e consequente postergação do planejamento da produção. Assim, os resultados atingidos demonstraram agilidade e assertividade no processo decisório da composição do blend, explicitação do conhecimento e redução dos tempos despendidos nesse processo.
Palavras-chave: Planejamento e Controle da Produção (PCP), Sistema Inteligente para Suporte à Tomada de Decisão e Composição de Blends.
Aluno: Clane Regina Rech Storch
Titulo: GESTÃO DE PROCESSOS APOIADO PELO MÉTODO MULTICRITÉRIO PARA TOMADA DE DECISÕES FINANCEIRAS
Defesa: 26 de fevereiro de 2016
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador),Prof.ª Dra. Liane Mählmann Kipper (UNISC),Prof. Dr. Miguel Afonso Sellitto (UNISINOS)
Resumo: Na gestão financeira precisa-se constantemente tomar decisões essenciais ao bom andamento dos negócios, visando à otimização dos resultados que podem ser obtidos através da gestão de processos. Para auxiliar nesta tarefa torna-se fundamental a utilização de métodos, técnicas e ferramentas de apoio. Um método que pode ser empregado pelos decisores na avaliação e definição das alternativas-solução é o método multicritério de apoio à decisão, que permite o uso em diferentes situações buscando auferir o processo de decisão. Nesse sentido a presente pesquisa propõe a utilização do método multicritério de apoio à decisão no fator crítico de sucesso que mais impacta no macro processo financeiro da organização pesquisada. Este trabalho objetiva diagnosticar, analisar e mapear o processo crítico identificado no macro processo financeiro da organização pesquisada e utilizar o método multicritério de apoio à decisão para avaliar diferentes cenários apresentados para o problema e identificar a melhor opção para os gestores. Em relação a metodologia a pesquisa é exploratória e descritiva. E para alcançar os objetivos desta pesquisa precisa-se seguir algumas etapas nos procedimentos metodológicos tais como: revisão bibliográfica; diagnóstico da organização através da observação direta, entrevista individual, levantamento de dados e utilização do método diagnóstico proposto por Alberti (2014); identificação do fator crítico de sucesso (entrevista e questionário); mapeamento do processo financeiro identificado, auxiliado pelo diagrama de Tripol, uso do Software Bizagi Modeler para desenho do mapa, sendo norteado pelo método de implantação da Gestão por Processos proposto por Alberti et al. (2014) denominado de MDP (Modeling Deployment Performance); e por último a proposta de utilização do método multicritério de apoio à decisão para o fator crítico identificado. O método diagnóstico usado na organização forneceu um “check up” completo, de forma sistêmica e detalhada a fim de permitir os gestores agir de imediato nos pontos críticos identificados, no macro processo financeiro, no qual foi identificado o fator crítico que mais impacta nos objetivos e estratégias da organização. O processo pertencente a este fator crítico foi mapeado a fim de possibilitar
sugestões de melhoria e aprofundar o conhecimento em relação as entradas, saídas e o processo executor. Uma das formas para auxiliar os decisores foi a utilização do método multicritério de apoio a decisão, pois fornece um ranking das alternativas possíveis apresentadas facilitando a ação do decisor, respaldada por um método e não somente em conhecimento empírico.
Palavras-chave: Diagnóstico organizacional, Gestão de processos, Método
multicritério, AHP, Promethee.
Aluno: Daniel Assmann
Titulo: SISTEMA DE RECONHECIMENTO DE MAPAS DE RISCO UTILIZANDO PROCESSAMENTO DE IMAGENS
Defesa: 20 de janeiro de 2016
Banca examinadora: Prof. Dr. Leonel Pablo Tedesco (Orientador),Prof. Dr. Ricardo Melo Czekster (Coorientador),Prof. Dr. Rolf Fredi Molz (UNISC),Prof. Dr. Rafael Rieder (UPF)
Resumo: A inclusão de pessoas com deficiência no mercado de trabalho exige uma série de medidas adaptativas por parte das empresas, pois precisam preparar o ambiente para a acolhida destes. Para auxiliar o processo de reconhecimento dos riscos provenientes do ambiente de trabalho existe o mapa de risco, um documento elaborado pela Comissão Interna de Prevenção de Acidentes (CIPA) para identificar a localização e a existência de riscos físicos, químicos, ergonômicos, biológicos e de acidentes, bem como sua intensidade. Porém este é inacessível para quem possui deficiência visual por se tratar de uma imagem. Visando a acessibilidade de um maior número de deficientes no mercado de trabalho e a preservação de sua integridade física, buscou-se avaliar a possibilidade de tornar o mapa de risco processável computacionalmente e de que forma isso seria feito. Para tanto, foi desenvolvido um sistema computacional utilizando métodos e técnicas de processamento digital de imagens para leitura, processamento e transformação em texto da imagem do mapa. Assim, o algoritmo do sistema recebe a imagem do mapa, identifica e isola as três regiões de interesse (ROI’s – Region of Interest) existentes, analisa a legenda das cores e das intensidades, localiza os objetos na região do layout, extrai e classifica seus atributos e, por fim, faz a conversão em formato textual. Resultados experimentais indicam que é possível tornar o mapa risco processável computacionalmente, com a inserção de marcadores nas áreas de interesse. Ao converter as características visuais do mapa de risco em outro formato, é permitida a acessibilidade ao portador de deficiência visual ou a outras pessoas com dificuldade de sua interpretação. Esse estudo é um grande passo rumo ao desenvolvimento de um aplicativo que poderá fazer uso dos dados tratados para sinalização de rotas e riscos.
Palavras-chave: processamento de imagens, visão computacional, mapas de risco, deficiente
visual, NR-5.
Aluno: Fernanda Carla Böck
Titulo: DESENVOLVIMENTO DE MÉTODOS DE ANÁLISE DE SUPERFÍCIE E CALIBRAÇÃO UTILIZANDO IMAGENS DIGITAIS
Defesa: 18 de fevereiro de 2016
Banca examinadora: Prof. Dr. Adilson Ben da Costa (Orientador),Prof. Dr. Rolf Fredi Molz (UNISC),Prof. Dr. Fábio dos Santos Grasel (TANAC).
Resumo: No presente trabalho foram estudados métodos de análise de imagens, como análise multivariada de imagens visando classificar um conjunto de amostras de painéis de média densidade (MDF do inglês Medium Density Fiberboard), e amostras de placas de mármores e granitos. Para a análise com MDF, foram coletadas 57 amostras na forma de mostruários comerciais de diferentes fornecedores, a fim de se obter espécies semelhantes de MDF de diferentes origens, para a análise de componentes principais. As imagens das amostras foram capturadas através de uma impressora multifuncional dotada de um escâner de mesa e processadas através do software CHEMOSTAT®. Já para a análise de mármores e granitos, as imagens foram adquiridas na marmoraria diretamente nas placas, através de um escâner de mão, e processadas através do software SOLO®+MIA (Eigenvector Research, Inc.). Também foi testada a utilização de análise univariada de imagens utilizando um aplicativo de celular denominado PhotoMetrix para a construção de curvas de calibração, e quantificação de analito nas amostras. Este aplicativo foi testado na determinação de ferro em amostras de suplemento vitamínico a base de sulfato ferroso e nitrito em amostras de água, aplicando metodologias adaptadas de ASTM E 394 (2004) e APHA (2005), respectivamente. As metodologias estudadas apresentaram resultados satisfatórios, podendo identificar a semelhança e a relação de agrupamentos formados pelas amostras de MDF a partir da reprodução do gráfico de scores com as imagens impressas, e classificação das amostras de granitos através da análise de componentes principais de imagens. Também permitiu a quantificação dos analitos nas amostras estudadas, com a utilização de um aplicativo de celular, no entanto problemas com interferências foram identificadas nas determinações de nitrito em água.
Desta forma, os resultados produzidos no desenvolvimento desta dissertação de mestrado contribuíram para o desenvolvimento do Grupo de Pesquisa em Quimiometria da UNISC, especialmente na área de análise de imagens, uma vez que os resultados aqui produzidos foram utilizados na avaliação e aperfeiçoamento dos softwares CHEMOSTAT® e PhotoMetrix, que resultou na produção de três artigos (dois já publicados), e no encaminhamento do registro destes softwares junto ao INPI.
Palavras-chave: Análise multivariada de imagens, PCA, Calibração univariada
Aluno: Jônatas Inácio de Freitas
Titulo: ORGANIZAÇÃO E ANÁLISE DE UMA MODELAGEM PARA O USO DE ENXAME DE PARTICULAS NA OTILIMIZAÇÃO DE PROBLEMA DE LAYOUT DE FECILIDADES
Defesa: 24 de fevereiro de 2016
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador),Prof. Dr. Leonel Pablo Tedesco (UNISC),Prof. Dr. Julio Cezar Mairesse Siluk(UFSM)
Resumo: Esta pesquisa teve como proposta a investigação de uma modelagem para o problema de layout de facilidades, pela utilização do algoritmo enxame de partículas, visando à obtenção de soluções competitivas. Neste problema de otimização é discutida a alocação de facilidades, tais como máquinas, estações de trabalho, escritórios e departamentos diversos, em uma aplicação física. A maioria das abordagens do problema trata de minimizar o custo de transporte e manuseio de material, item que corresponde de 20 a 50% do custo operacional e de 15% a 70% do custo total de fabricação de um produto. Enxame de partículas é uma meta-heurística de inteligência coletiva em que se pretende a troca de informações entre os indivíduos de uma população, para otimização de uma determinada variável. Uma pesquisa bibliométrica realizada neste trabalho revelou um potencial considerável de exploração da aplicação deste algoritmo na resolução do problema de layout. Foram desenvolvidos dois métodos de duplo estágio baseados em enxame de partículas para abordagem do problema de layout de facilidades: o primeiro construindo o layout com árvores binárias e o segundo, com matrizes de particionamento. Dez problemas-teste consolidados na literatura científica foram utilizados para validação dos métodos e os resultados foram comparados com os melhores trabalhos publicados. Enquanto o primeiro método obteve soluções competitivas para problemas de até dez instâncias, mas infactíveis para problemas a partir de 14 instâncias, o segundo método obteve boas soluções para problemas de até 14 instâncias, mas razoáveis para todos os problemas testados.
Palavras-chave: otimização, problema de layout de facilidades, enxame de partículas,
árvores binárias, matriz de particionamento
Aluno: Roguél Dalberto
Titulo: DESENVOLVIMENTO DE UM SISTEMA MULTIFUNCIONAL PARA ANÁLISE EM FLUXO UTILIZANDO RECURSOS COMPUTACIONAIS LIVRES
Defesa: 26 de fevereiro de 2016
Banca examinadora: Prof. Dr. Adilson Ben da Costa (Orientador),Prof. Dr. Leonel Pablo Tedesco (UNISC),Prof. Dr. Valderi Luiz Dressler (UFSM).
Resumo: A presente pesquisa teve como objetivo principal automatizar um sistema de análise em fluxo, em diferentes configurações de uso, utilizando software e hardware de fonte aberta, de forma a tornar o sistema multifuncional, permitindo o controle do processo e análise dos resultados em tempo real, sem causar prejuízos a qualidade dos resultados quando comparados aos métodos de referência. Para tanto o sistema foi automatizado utilizando micro válvulas solenoides, como elemento de comutação, hardware e software Arduino, para realizar o gerenciamento, o software MATLAB ® 2012 para desenvolvimento das interface homem máquina e para análise dos resultado em tempo real, bem como plotagem de gráficos utilizou-se software EspectroDATA. O sistema foi testado avaliado em rotinas analíticas de diluição através da determinação de sódio e potássio por fotometria de chama, determinação de íons fluoreto pelo método de SPADNS, avaliando os resultados por área e altura de pico, e determinação de íons de nitrito e nitrato pelo método de Griess, realizando a redução do nitrato a nitrito utilizando coluna de cádmio cobreado. Os resultados foram comparados aos métodos de referência e não apresentaram diferenças significativas (p>0,05) entre os resultados, sendo assim considerados satisfatórios em todos os métodos com exceção dos resultados de quantificação de íons de fluoreto através da altura de pico.
Palavras-chave: Análise em fluxo, comutação automatizada, Arduino.
Aluno: Jorlei Luis Baierle
Título: SISTEMA INTELIGENTE PARA AUTOMAÇÃO DE CONDICIONAMENTO DE TABACO
Defesa: 09 de maio de 2016
Banca: Dra. Rejane Frozza (Orientadora), Dr. Rolf Fredi Molz (Coorientador), Dr. Jacques Nelson Corleta Schreiber (UNISC), Dr. João Luis Tavares da Silva (FTEC)
Resumo: A necessidade de otimização de sistemas e processos é primordial para as organizações manterem-se competitivas no mercado de negócios, já que a competitividade está exigindo cada vez mais tomada de ações rápidas e eficientes. No contexto da produção do tabaco, a otimização está ligada ao fator de produtividade e aceitação do produto no mercado interno e externo. Esta pesquisa objetiva desenvolver um sistema inteligente, baseado na experiência de especialistas humanos na área, com o uso da técnica de lógica fuzzy para automação do processo de umidificação existente em cilindros empregados no processamento de tabaco. A lógica fuzzy foi utilizada por ser capaz de tratar informações subjetivas e imprecisas como um modelo computacional de tomada de decisão. Para a obtenção dessas informações subjetivas de domínio de especialistas (aquisição de conhecimento), foi adotada a técnica de entrevista Delphi. Assim, a metodologia utilizada aborda as etapas de desenvolvimento de um sistema baseado em conhecimento (aquisição, representação, desenvolvimento e avaliação).
Palavras-chave: Sistema inteligente, Processamento de tabaco, Lógica fuzzy, Técnica Delphi.
Aluno: Laone Kuentzer
Título: SISTEMA DE APOIO À DECISÃO GERENCIAL NO PROCESSO DE COMPRAS UTILIZANDO CONHECIMENTO ORGANIZACIONAL
Defesa: 11 de outubro de 2016
Banca: Prof.ª Dra. Rejane Frozza (Orientadora), Prof.ª Dra. Liane Mählmann Kipper (Coorientadora), Prof. Dr. Ricardo Melo Czekster (UNISC) e Prof.ª Dra. Lisandra Manzoni Fontoura (UFSM)
Resumo: Esta pesquisa propõe um modelo que visa transformar o conhecimento existente em um processo organizacional, em conhecimento explícito, desenvolvendo uma ferramenta de auxílio na tomada de decisão estratégica e mantendo o conhecimento útil do processo de compras da Universidade de Santa Cruz do Sul (UNISC). Foram realizados estudos sobre temas que abordam o conhecimento, as organizações que aprendem, os sistemas de apoio à decisão, as práticas realizadas num processo de compras e trabalhos relacionados. A pesquisa-ação foi a metodologia utilizada. Foram realizadas entrevistas com a coordenação da área de compras, a fim de se obter conhecimento sobre quais são os fatores envolvidos neste processo que poderiam ser explorados e otimizados em um sistema de apoio à decisão. A partir das entrevistas, foram elencadas cinco questões prioritárias a serem investigadas. Para obter todos os dados necessários envolvidos nestas questões, foram construídos modelos dimensionais em um Sistema Gerenciador de Banco de Dados e criadas as rotinas para importar diariamente os dados dos sistemas mapeados. Como Sistema de Apoio à Decisão (SAD), utilizou-se um Software de Planilha Eletrônica para efetuar consultas sobre o modelo dimensional, visando trazer informações que respondessem aos questionamentos. Para cada uma das cinco questões foi elaborada uma planilha, com filtros específicos capazes de demonstrar a informação necessária à interpretação e resposta, incluindo gráficos. As consultas ao modelo foram préelaboradas, mas podem ser modificadas, com o objetivo de recombinar colunas (dimensões) e criar novos filtros aos dados, explicitando novos conhecimentos. O conhecimento gerado foi validado com a coordenação da área de compras da UNISC, que avaliou como positiva a solução desenvolvida, permitindo que os dados estejam em constante atualização e que muitos outros resultados sejam obtidos, não se limitando apenas às questões definidas como prioritárias. A pesquisa não gerou custos e necessidade de investimento para a área de compras, pois fez-se uso de software já licenciado e utilizado pela instituição, que não exigiu capacitações onerosas e mudanças na cultura organizacional.
Palavras-chave: Sistema de Apoio à Decisão, Modelo Dimensional de dados, Tomada de Decisão Estratégica.
Aluno: Marlon Beise
Título: AUTOMAÇÃO INDUSTRIAL ALIADA À PRODUÇÃO ENXUTA: CAMINHOS PARA MELHORIA E OTIMIZAÇÃO DE PROCESSOS
Defesa: 05 de setembro de 2016
Banca: Dr. Leonel Pablo Tedesco (Orientador), Dr. Rolf Fredi Molz (Coorientador), Dra. Liane Mählmann Kipper (UNISC) e Dr. Eugênio de Oliveira Simonetto (UFSM)
Resumo: Esta pesquisa objetivou aliar a produção enxuta com a automação de processo, de modo a melhorar e otimizar processos produtivos. A produção enxuta e sua metodologia de identificação e eliminação de desperdícios, aliada com a tecnologia da automação, torna possível a proposição e simulação de melhorias em um determinado processo. A presente pesquisa foi aplicada no setor de classificação e preparação de tabaco para beneficiamento e preparação para fabricação de cigarros de uma empresa do setor, localizada em Santa Cruz do Sul/RS. Inicialmente pesquisou-se o processo atual para poder conhecê-lo e mapeá-lo, para posteriormente poder identificar desperdícios, utilizando as técnicas da produção enxuta e também como resolve-los com a automação de processo. Com o modelo atual e o modelo customizado mapeados, iniciaram-se as simulações de ambos, que resultou em um aumento de produtividade em torno de 15% no processo de recebimento e preparação do tabaco. Com base nesses dados foi possível destacar a eliminação de desperdícios com a automação de processo. Adicionalmente, verificou-se a importância do uso da simulação para validar e ou testar as consequências produzidas por alterações no processo produtivo, o que pode proporcionar um projeto final com custos mais reduzidos.
Palavras-chave: Produção Enxuta, Automação de Processo, Simulação de Processo.
Aluno: Thiago Rebelatto Oliveira
Título: UM MÉTODO DE VISÃO COMPUTACIONAL PARA MANIPULADORES ROBÓTICOS MÓVEIS
Defesa: 13 de maio de 2016
Banca: Dr. Leonel Pablo Tedesco (Orientador), Dr. Adilson Ben da Costa (UNISC) e Dr. Rodrigo da Silva Guerra (UFSM)
Resumo: Esta dissertação apresenta um método de visão computacional para manipuladores robóticos móveis. Propõe-se aqui um método de visão computacional para ser utilizado em tais manipuladores, sendo aplicados à pintura de paredes de tanques de combustível. De forma específica, objetiva-se: (i) dominar técnicas de visão computacional integrada ao desenvolvimento de manipuladores robóticos móveis; (ii) testar diferentes técnicas de visão computacional com detecção de obstáculos e propor trajetos em tanques de armazenamento de combustíveis; (iii) compreender as funções da biblioteca OpenCV; (iv) compreender os métodos existentes para execução de processos de pintura em tanques de armazenamento de combustíveis. Para o desenvolvimento foram utilizadas técnicas de processamento de imagens, métodos de visão computacional e técnicas de mapeamento de trajetórias. A partir disso, foi possível identificar os próprios robôs, a área de pintura e de objetos, possibilitando assim realizar o mapeamento de trajetória. Desta forma, tal trabalho contribui com a possibilidade de ampliação do método proposto, de modo a ser adaptado em outras aplicações além da pintura de tanques de combustíveis, como o mapeamento de trajetória para máquinas agrícolas, pintura de edificações, entre outras tarefas que possam ser desenvolvidas por robôs autônomos móveis.
Palavras-chave: Manipulador robótico móvel, Visão computacional, Robô autônomo móvel, Mapeamento de trajetórias
Aluno: Douglas Roberto Nervo da Cruz
Titulo: DESENVOLVIMENTO DE UM SISTEMA PARA DETERMINAÇÃO ENTALPIMÉTRICA POR INFRAVERMELHO
Defesa: 27 de fevereiro de 2015
Banca examinadora: Dr. Adilson Ben da Costa Professor Orientador, Dr. Leonel Pablo Tedesco Professor Coorientador Dr. Rolf Fredi Molz, Professor examinador – UNISC Dr. Rômulo Davi Albuquerque Andrade Professor examinador – Instituto Federal Goiano.
RESUMO: No presente trabalho montou-se um sistema para análise entalpimétrica utilizando câmera de infravermelho como sensor de temperatura. Os primeiros testes tinham o propósito de avaliar a eficiência deste sistema no monitoramento da temperatura de uma titulação termométrica de neutralização. Desta forma, utilizou-se o sistema na determinação da concentração de uma alíquota de 20 mL de uma solução de NaOH (@ 1molL-1) utilizando, como titulante, uma solução de HCl padronizada, com concentração de 1,007 molL-1. O próximo passo foi determinar a entalpia de neutralização utilizando soluções de 50 e 20 mL de soluções de HCl (1,007 molL-1) e NaOH (1,012 molL-1). Os resultados obtidos na determinação da entalpia de neutralização de cinco alíquotas de 50 mL de solução de NaOH (1,012 molL-1) com 50 mL de solução de HCl (1,007 molL-1) foram de - 61,81 ± 4,45 kJ mol-1 (sensor PT-100), - 59,98 ± 2,23 kJ mol-1 (termômetro de mercúrio) e - 57,08 ± 0,26 kJ mol-1 (câmera de infravermelho). Em relação a solução de 20 mL, a determinação da entalpia de neutralização de seis alíquotas de 20 mL de solução de NaOH (1,012 molL-1) com 20 mL de solução de HCl (1,007 molL-1) utilizando a câmera resultou num valor de – 58,34 ± 1,96 kJ mol-1. Além da entalpia, determinou-se a curva de calibração e o coeficiente de determinação (R2) referente aos valores de temperaturas das reações. Os valores de R2 foram de 0,941 (PT-100), 0,9933 (termômetro) e 0,9999 (câmera), tornando a câmera o equipamento mais apropriado para determinação das variações de temperatura das reações para solução de 50 mL de NaOH (0,25; 0,5; 0,75 e 1 molL-1) com solução de 50 mL de HCl (1 molL-1). A terceira etapa foi a miniaturização do sistema de análise entalpimétrica desenvolvido. Inicialmente, com o uso de um pipetador multicanal, foi realizada a adição de 0,1 mL da solução de HCl (1,007 molL-1) a um volume igual da solução de NaOH (1,012 molL-1) e após foram calculados capacidade calorífica do sistema e entalpia. Os resultados determinaram um valor médio de entalpia de neutralização de - 59,61 ± 2,94 kJ mol-1, além de um erro de - 3,77 kJ mol-1. Também determinou-se a curva de calibração e coeficiente R2 referente aos valores de temperaturas resultantes do acréscimo de 0,15 mL da solução de HCl (1 molL-1) a um volume igual de NaOH (0,25; 0,5; 0,75 e 1 molL-1) utilizando pipetadores monocanal e multicanal. Os valores de R2 foram de 0,90 (PT-100) e 0,9921 (câmera) com pipetador monocanal e 0,959 (PT-100) e 0,9748 (câmera) para pipetador multicanal. Diante desses valores, a câmera mostrou-se mais apropriado para análises entalpimétricas, tanto com pipetador monocanal quanto com multicanal. No último passo desenvolveu-se um sistema automatizado para análise 5 entalpimétrica utilizando câmera de infravermelho como sensor de temperatura. Em uma linha da placa de Elisa (8 cavidades) adicionou-se um volume de 0,1 mL da solução de HCl (1,007 molL-1) a um volume igual da solução de NaOH (1,012 molL-1) e calculados capacidade calorífica do sistema e entalpia. Quando analisado de forma manual, o valor da entalpia foi de – 60,96 kJ mol-1 e com o uso do programa, a entalpia passou a ser – 57,65 kJmol-1. Em virtude disso, pode-se concluir que a câmera de infravermelho é o melhor equipamento para se determinar a entalpia das reações químicas de neutralização. Também se faz necessário um programa que analise valores de temperatura e calcule a entalpia, pois a chance de erro é menor do que se análise e cálculo forem feitas manualmente.
Palavras-chave: câmera de infravermelho, entalpia, análise entalpimétrica.
Aluno: Fabio Josende Paz
Titulo: INDICADORES PARA A SUSTENTABILIDADE ORGANIZACIONAL: UM ESTUDO EXPLORATÓRIO PARA O DESENVOLVIMENTO DE UM SISTEMA COMPUTACIONAL
Defesa: 26 de fevereiro de 2015
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof.ª Dra. Rejane Frozza (UNISC), Prof. Dr. Daniel Pacheco Lacerda (UNISINOS)
RESUMO: Esta pesquisa objetivou propor um modelo para avaliar a maturidade e educação para a sustentabilidade das organizações, percorrendo os estudos sobre temas que abordam a sustentabilidade nas organizações, Triple Botton Line, pensamento sistêmico, indicadores e sistemas de medição de desempenho, além de construir um sistema computacional que contempla este modelo utilizando técnicas de usabilidade. O estudo foi aplicado no setor de agronegócio da região do pampa do Rio Grande do Sul em organizações com características sustentáveis e em uma empresa referência em sustentabilidade no Brasil. A pesquisa foi definida como exploratória e descritiva, além da realização de um estudo multi-caso, foram utilizadas técnicas como questionários e entrevistas para identificação dos principais indicadores sustentáveis utilizados. Dos principais resultados encontrados destaca-se a importância da sustentabilidade e que sua utilização resulta em melhor desempenho financeiro, estímulo a inovação, a melhor gestão e o envolvimento dos stakeholders, porém sua utilização ainda é pequena sendo a dimensão financeira a mais utilizada, também foram identificados os indicadores sistêmicos utilizados nas empresas estudadas e a percepção que a quantidade de indicadores utilizados não tem relação com a sustentabilidade, ainda foi proposta a ferramenta MESO com métricas para avaliar a maturidade para a sustentabilidade e sugestões de ações de melhorias, além da criação do sistema computacional online com a utilização de uma metodologia que utiliza técnicas de usabilidade e os modelos mentais dos usuários o qual comprovou-se satisfatória em seu objetivo, que é facilitar a interação do usuário com o sistema além de estimular a aprendizagem, promovendo a melhora da educação para a sustentabilidade criando um ciclo virtuoso para a geração de uma base de conhecimento renovada e atualizada em prol da sustentabilidade organizacional.
Palavras-chave: Indicadores, Maturidade, Sustentabilidade e Usabilidade.
Aluno: Gilberto Dessbesell Júnior
Titulo: SIMULAÇÃO DE CONTROLE ADAPTATIVO DE TRÁFEGO URBANO ATRAVÉS DE SISTEMA MULTIAGENTES E DADOS REAIS
Defesa :27 de fevereiro de 2015
Banca examinadora: Prof.ª Dra. Rejane Frozza (Orientadora), Prof. Dr. Rolf Fredi Molz (UNISC), Prof.ª Dra. Diana Adamatti (FURG)
RESUMO: A população urbana cresce rapidamente nos centros urbanos. A quantidade de pessoas que utilizam veículos próprios como meio de transporte cresce mais rápido ainda. Todo este crescimento faz com que a infraestrutura de transportes fique saturada, gerando lentidão, congestionamentos e aumentando o tempo que as pessoas passam dentro dos veículos. Os engarrafamentos têm causado transtornos de ordem econômica, social e ambiental à população. Com o aumento de tempo das viagens e a maior quantidade de veículos nas ruas, também ocorrem maiores índices de poluição sonora e do ar. Além disso, em grandes cidades, diariamente os condutores enfrentam situações de estresse no trânsito. Melhorias nos sistemas de controle de tráfego têm sido propostas, mesmo assim ainda há muito a ser feito. Desta forma, neste trabalho foi verificada a eficácia do emprego de agentes inteligentes para o controle do tráfego urbano, em ambiente de simulação multiagentes, a fim de reduzir os efeitos negativos causados, principalmente, pelos congestionamentos. Após a realização de um estudo sobre trabalhos relacionados ao controle de tráfego de urbano e à simulação multiagentes, obteve-se uma visão geral a respeito das recentes pesquisas realizadas sobre o tema. Esta visão é apresentada ao longo do trabalho e serviu de base para o desenvolvimento das melhorias propostas. Neste trabalho foi utilizado o simulador de tráfego urbano SUMO para realizar a simulação do tráfego de veículos em uma região da cidade de Porto Alegre, no Rio Grande do Sul. Dados reais a respeito dos planos de programação dos semáforos existentes no local e do volume de tráfego em alguns cruzamentos da cidade foram utilizados. Em seguida foi desenvolvido um semáforo inteligente, que utiliza uma heurística em forma de algoritmo de controle para tomar suas decisões e a simulação foi realizada novamente. O resultado das duas simulações, sem e com o semáforo inteligente proposto, foi então comparado e os resultados encontrados foram considerados de grande relevância.
Palavras-chave: Controle de tráfego urbano, simulação de tráfego urbano, simulação multiagentes, heurísticas para semáforos inteligentes.
Aluno: Gelson Luis Peter Corrêa
Titulo: DESENVOLVIMENTO E AVALIAÇÃO DE UM PROTÓTIPO DE COLORÍMETRO POR IMAGENS DIGITAIS
Defesa: 04 de setembro de 2015
Banca examinadora: Prof. Dr. Adilson Ben da Costa(Orientador), Prof. Dr. Rolf Fredi Molz(Coorientador), Prof. Dr. Leonel Pablo Tedesco (UNISC), Prof. Dr. Manoel Leonardo Martins(FURG).
RESUMO: O presente trabalho tem como objetivo desenvolver o protótipo de um sistema para determinações colorimétricas por imagens digitais, bem como realizar a avaliação de sua funcionalidade analisando concentrações de fósforo e flúor em águas naturais. Motivado a partir da percepção de que se faz necessária a existência de recursos portáteis, alternativos ao uso do espectrofotômetro, como forma de otimizar o tempo de análise, os custos de transporte e o acondicionamento das amostra. Desenvolvido, inicialmente, de forma genérica, o protótipo foi aplicado à análise de soluções coloridas artificialmente e, posteriormente, avaliado para a determinação de fósforo e flúor em águas naturais. Para tanto, inicialmente desenvolveu-se um software para aquisição e tratamento de imagens digitais, aplicando o modelo de cor RGB e duas de suas derivações. O software em questão, desenvolvido em MATLAB®2009a (MathWorks) e organizado de forma a apresentar uma interface gráfica de fácil utilização, permite a captura e tratamento da imagem colorida da amostra, armazenando os dados obtidos em um arquivo Excel. Entretanto, antes de chegar ao resultado das avaliações, fez-se necessária a construção de uma câmara para aquisição das imagens digitais para acondicionar uma webcam, um suporte para cubeta e uma fonte de iluminação, combinados e acomodados de forma estratégica, formando assim um caminho óptico e evitando ruídos de iluminação externa na captura da imagem. Aplicando as análises iniciais com corantes artificiais, obteve-se resultados com valores dos coeficientes de determinação superiores a 0,99 para as análises das cores azul, vermelho e verde. O método proposto foi comparado com o método de referência (espectrofotômetro) afim de validação. Devido à condição de fácil utilização tanto do software quanto do protótipo, o método proposto apresentou resultados equivalentes ao método de referência na determinação fósforo. Diante de tais resultados, pode-se afirmar que a utilização de um protótipo para determinações colorimétricas por imagens digitais foi relevante, mesmo que seja utilizado como método de varredura, de forma a identificar as amostras problemáticas e posteriormente encaminhar para uma análise através de metodologias de referência.
Palavras-chave: Água, espectrofotômetro, colorímetro, fósforo, flúor.
Aluno: Jander Pinto
Titulo: ANÁLISE E DIAGNÓSTICO DO SISTEMA DE PRODUÇÃO DE LEITE NO VALE DO TAQUARI - RS: RETROSPECTIVAS E PERSPECTIVA
Defesa: 25 de fevereiro de 2015
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof.ª Dra. Lisianne Britez Benittez (UNISC), Prof. Dr. Andreas Dittmar Weise (UFSM).
RESUMO: O crescente aumento dos níveis de competitividade do mercado força as empresas a reduzirem seus custos, causando reduções de estoques e gerando o desafio de prever ou determinar a quantidade correta de produção de acordo com a sua demanda. Assim, a Previsão de Demanda é utilizada como ferramenta de auxilio ao planejamento, pois respostas rápidas e precisas são exigidas dentro das empresas. A presente pesquisa foi desenvolvida baseada em atuais técnicas e conceitos que norteiam a previsão de demanda e teve como objetivo investigar e avaliar o uso de ferramentas estatísticas e computacionais no processo de otimização da previsão de demanda através do desenvolvido de um estudo de caso em uma empresa fabricante de acessórios para motociclistas, onde se avaliou o sistema produtivo. Visando alinhar modelos de previsão de demanda, utilizou-se dados históricos de vendas que foram implementados na ferramenta estatística NCSS. A construção da modelagem baseou-se no método proposto por Armstrong (2001), e a partir de modelagens estatísticas foram gerados cenários de previsão de demanda. No resultado encontrado fica evidenciado o nível de eficácia dos métodos adotados e os ganhos da gestão ao utilizar as ferramentas de forecasting, pois se verificaram bons resultados de acurácia dos dados passados das previsões realizadas, onde a representatividade das previsões geradas pelo software NCSS apresentaram os valores de 0,64 para R², e validou-se a metodologia.
Palavras-chave: Previsão de demanda; NCSS; Produção.
Aluno: Jaqueline de Menezes Krüger
Titulo: UTILIZAÇÃO DA SIMULAÇÃO DE PROCESSOS E GESTÃO DO DESIGN NO DESENVOLVIMENTO DE PRODUTOS – ESTUDO DE CASO: EMPRESAS GAÚCHAS DO SETOR MOVELEIRO
Defesa: 29 de abril de 2015
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof.ª Dra. Liane Mählmann Kipper (Coorientadora), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC), Prof. Dr. Eugênio de Oliveira Simonetto (UFSM)
RESUMO: Para melhorar a qualidade dos produtos gerados pelas pequenas e médias empresas, as quais predominam o cenário gaúcho de desenvolvimento de mobiliário, e, para permitir maior competitividade nacional e internacional, é imperativo que novos produtos sejam gerados a partir da incorporação de conceitos de design. Tomando por base o design como norteador do projeto, surgiu o seguinte problema de pesquisa: quais adequações seriam necessárias para otimizar o desenvolvimento de mobiliário em pequenas empresas do setor? Assim, o objetivo geral deste estudo visou investigar, por meio do estudo de caso, o processo produtivo e gerencial de empresas de porte pequeno e médio do setor moveleiro no Rio Grande do Sul, buscando o aperfeiçoamento de produtos através da incorporação de requisitos de design nas fases iniciais do processo de desenvolvimento de produto, bem como a utilização da simulação de processos para a otimização do cenário produtivo. Para este fim, a utilização do software de simulação contribuiu para um melhor entendimento do processo e serviu como divulgação desta ferramenta de apoio, estimulando sua utilização tanto em meio acadêmico quanto empresarial. Inicialmente, por meio da aplicação de um questionário online, foi possível estabelecer um panorama do Processo de Desenvolvimento de Produtos (PDP) de duas organizações moveleiras, referidas como Empresa A e Empresa B. Foi observado de que maneira se estabelece a atuação dos colaboradores responsáveis pela condução dos processos necessários para a concepção e materialização do produto final. Determinaram-se quais percepções e quais atividades refletem no produto final, quais atitudes e procedimentos favorecem ou desfavorecem a obtenção de resultados satisfatórios, e que, com base nas premissas do design, é possível obtermos um produto final cujo resultado é manifestado por todas as etapas que correspondem ao seu processo de desenvolvimento. Foi proposta a análise de ambos cenários produtivos, porém, o mapeamento dos processos somente foi concluído em uma das empresas, no caso, a empresa A, onde o processo de simulação possibilitou a modelagem de três cenários para a realização de testes e análise de diversos fatores. Sendo assim, a simulação computacional aliada aos processos industriais mostrou-se um elemento chave para a visualização e otimização da produção, a qual foi utilizada para oferecer possibilidades de novas configurações, apresentando um cenário produtivo com melhoras quantitativas, em função do aumento de peças produzidas em quase o dobro da atual.
Palavras-chave: Design. PDP. Simulação de processos
Aluno: Jonas Knipphoff da Cruz
Titulo: PROPOSIÇÃO DE UM INDICADOR DE ESTABILIDADE DO DESEMPENHO DE PROCESSOS UTILIZANDO SISTEMA BASEADO EM CONHECIMENTO
Defesa: 26 de fevereiro de 2015
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof.ª Dra. Rejane Frozza (Coorientadora), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC), Prof. Dr. Daniel Pacheco Lacerda (UNISINOS)
RESUMO: Este trabalho apresenta a proposta de um índice de estabilidade de desempenho de processos, fundamentado a partir da aplicação dos conceitos de gestão por processos, técnicas estatísticas aplicadas a processo e modelagem de sistema de apoio à decisão baseado em regras de produção. A metodologia de pesquisa adotada foi a pesquisa-ação que orientou a condução das etapas de diagnóstico da situação atual, análise de processos e indicadores, definição do indicador de estabilidade, desenvolvimento, implementação e validação do sistema de apoio à decisão. Nas etapas de diagnóstico e análise dos processos as ferramentas utilizadas foram técnicas de entrevistas individuais semiestruturadas com a utilização de formulário 5W1H. As entrevistas e dados coletados formaram a base para realização do mapeamento de processos, construção dos fluxogramas no padrão BPMN, matriz de indicadores críticos e as regras de produção. Para a definição do indicador de estabilidade foram utilizadas referências de estatística aplicada ao controle de processo como Seis sigmas, índice CPK e gráficos de controle de processo. Na etapa de desenvolvimento e implementação, foi construída a da base de conhecimento do sistema especialista de apoio à decisão a partir do modelo de monitoramento e conceitos de estabilidade de processo. A partir das regras de negócios, o protótipo do sistema especialista foi desenvolvido utilizando linguagem Visual Basic e SQL, com a base de dados Microsoft ACCESS e EXCEL. Também foram desenvolvidos módulos para interfaces ETL com base de dados EXCEL e SQL Server. O índice de estabilidade e o relatório de monitoramento proposto foram testados em uma empresa multinacional do ramo de tabaco, localizada no Sul do Brasil. Os resultados obtidos mostraram que através da utilização do índice de estabilidade e da análise das variações dos indicadores baseada em regras de produção, foi possível medir o nível de estabilidade do processo e definir as ações corretivas efetivas para melhorá-lo.
Palavras-chaves: Gestão por processos, Indicadores-Chaves, Estabilidade de Processo, Sistema de Apoio à Decisão, Regras de Produção.
Aluno: Mauricio da Cunha Muller
Titulo: OTIMIZAÇÃO DO USO DA CARTA DE TEMPERATURA TRANSIENTE DE HEISLER ATRAVÉS DA INVESTIGAÇÃO E IMPLEMENTAÇÃO DE FERRAMENTA COMPUTACIONAL
Defesa: 04 de dezembro de 2015
Banca Examinadora: Prof. Dr. João Carlos Furtado(Orientador), Prof. Dr. Elpídio Oscar Benitez Nara (UNISC),Prof. Dr. Anderson Favero Porte (IFRS)
RESUMO: A constante busca pela perfeição produtiva agregada a exigência dos consumidores, estimula cada vez mais o desenvolvimento de ferramentas capazes de contribuir para o atendimento da demanda de produtos com melhor qualidade. Dentro dessa ideia, os processos que necessitam de cálculos de tempo e temperatura realizados para o controle de aquecimento, também necessitam acompanhar as constantes mudanças oriundas do crescimento da exigência da qualidade. Assim, o propósito desta pesquisa é Implementar uma ferramenta computacional baseada na Carta de Temperatura Transiente de Heisler, utilizada para calcular o tempo de aquecimento no centro geométrico de Cilindros, que seja capaz de processar os dados inseridos do Coeficiente de Transferência de Calor Adimensional (Biot-1) e da Temperatura Adimensional (Ɵ), e informar dados de Tempo Adimensional (Fo) de forma automática, com maior agilidade e clareza do que a carta de papel. Justifica-se pelo fato de que uma investigação bibliográfica realizada junto a portais de periódicos demonstrou a existência de poucas abordagens, e até mesmo carência, de trabalhos voltados à automação de cartas ou ábacos de temperatura focados em minimizar erros e reduzir tempo de obtenção de dados. Dessa forma, como contribuição, essa pesquisa traz dados referentes às retas obtidas computacionalmente diretamente da imagem da carta, por meio de uma metodologia de interpolação e de cálculo diferenciado, bem como uma ferramenta computacional capaz calcular e informar o (Fo) de forma automática e um teste de funcionalidade realizada junto a usuários. A metodologia de pesquisa utilizada teve objetivos descritivos e explicativos, coleta de dados bibliográficos e experimentais e variáveis quantitativas, buscando assim obter transparência nos parâmetros pesquisados e avaliados. Limitou-se a uma ferramenta baseada apenas nos dados explícitos e expressos na imagem da carta, ou seja, nas escalas, linhas e grandezas já existentes, bem como na possibilidade de informar apenas o (Fo) quando inseridos valores de (Biot-1) e de (θ). Os resultados obtidos por meio da utilização da ferramenta, quando comparados aos resultados obtidos por carta manual, demonstraram uma diferença média de 7,18% nos resultados obtidos por usuários amadores e de 2,65% nos resultados obtidos por usuário profissional.
Palavras-chave:Carta, Transiente, Heisler, Programa, Software
Aluno: Marcelo Schafer
Titulo: TREINAMENTOS E-LEARNING COM ESTRATÉGIA DE ENSINO BASEADA EM ANIMAÇÕES
Defesa: 14 de dezembro de 2015
Banca examinadora: Profª. Dra. Rejane Frozza(Orientadora), Prof. Dr. Jacques Nelson Corleta Schreiber(UNISC), Profª. Dra. Adriana Soares Pereira(UFSM)
RESUMO: Nos treinamentos a distância, professores e estudantes se comunicam e interagem utilizando ferramentas virtuais, sendo uma delas o Ambiente Virtual de Aprendizagem (AVA). Estes ambientes possuem como objetivos integrar várias mídias, linguagens e recursos; apresentar conteúdos para a aprendizagem; promover interações visando o conhecimento; socializar produções, a fim de proporcionar a efetiva aprendizagem. Cada estudante possui o seu estilo de aprendizagem individual, que por sua vez apresenta diferentes formas de adquirir ou processar as informações (BECHARA et al., 2011). Cada estilo de aprendizagem possui características e preferências de estratégias de aprendizagem que devem ser respeitadas e contempladas pelo professor no momento da elaboração do material didático e, assim, também para o conteúdo trabalhado no AVA. O objetivo deste trabalho foi propor e validar uma estratégia de ensino baseada em animações para treinamentos e-learning, a fim de proporcionar experimentação aos usuários e contribuir para o seu aprendizado. A metodologia empregada para o desenvolvimento desta pesquisa envolveu estudo e análise das características de ambientes virtuais de aprendizagem (e-learning); desenvolvimento do material da base de conhecimento com a tática de animação; validação da proposta com grupo de estudantes; avaliação do desempenho dos estudantes em relação ao processo de aprendizagem proposto e utilizado pelo ambiente e-learning. Duas estratégias cognitivas foram elaboradas para cada estilo de aprendizagem, uma delas com a tática 1, considerando apenas a adaptação do AVA conforme estilo de aprendizagem do estudante, e a outra com a tática 2, considerando a animação no processo de aprendizado. A validação foi realizada por dois grupos de estudantes que utilizaram o AVA para trabalhar com o conteúdo de Direção Preventiva. Um grupo utilizou a tática de animações e outro grupo não. Como conclusão do comparativo entre a utilização ou não da animação como parte do processo de ensino/aprendizagem, destaca-se que utilizar a animação faz com o estudante consiga evoluir no aprendizado, em consequência de seus processos cognitivos serem atingidos.
Palavras-chave: Ambientes virtuais de aprendizagem, Estilos de aprendizagem, Tática de Animação.
Aluno: Rafael Alvise Alberti
Titulo: DIAGNÓSTICO ORGANIZACIONAL COM ENFOQUE EM GESTÃO POR PROCESSOS PARA AUXILIAR A GESTÃO ORGANIZACIONAL
Defesa: 24 de fevereiro de 2015
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof.ª Dra. Liane Mählmann Kipper (UNISC), Prof. Dr. Julio Cezar Mairesse Siluk (UFSM)
RESUMO: Os modelos de diagnósticos com abordagens específicas têm a capacidade de servir como orientação à análise, porém destacam certas variáveis e não oferecem uma visão de fácil entendimento do funcionamento da organização. Enquanto isto, uma abordagem considerando o todo organizacional como algo integrado e correlacionado, oferece esquemas flexíveis, conforme condições nas quais a organização está inserida e competindo. A complexidade do ambiente de negócios impulsiona esforços constantes de melhorias dos processos de negócios. Processos estes entendidos como atividades ou tarefas que se inter-relacionam para produção de um produto ou serviço. Logo, para gerenciá-los, melhorá-los e aplica-los, é preciso primeiramente compreendê-los. Desta forma, a abordagem por processos de negócios em diagnósticos organizacionais se destaca por permitir às empresas, em meio ao ambiente de constantes mudanças, uma adaptação ágil às necessidades empresariais. Neste contexto, a pesquisa através de uma abordagem exploratória-qualitativa, propôs a construção de um método de diagnóstico organizacional, de forma complementar aos já conhecidos, ao acrescentar a orientação por processos de negócios e o entendimento da organização como um sistema completo, relacionado, mutável e flexível. Para isto, foram realizados levantamentos teóricos em temas como Gestão por Processos, Diagnósticos Organizacionais e Ferramentas de Gestão. Depois de balizado o Método-Diagnóstico, este foi operacionalizado como estudo de caso em empresa de grande porte. A modelagem do Método-Diagnóstico foi realizada de forma simplista, acessível e de fácil entendimento. Equilibrando grandes abordagens e possibilitando sua utilização na gestão da mudança e no entendimento organizacional. Quanto ao estudo de caso, foram inúmeros os apontamentos realizados, desde a falta de desdobramentos estratégicos, a ausência de mapeamento dos processos, inquietações dos colaboradores até a falta de indicadores com foco nos clientes. Por se tratar de uma primeira proposta, o Método-Diagnóstico está passível de interpretações dúbias e de explicações rasas. Podendo ser aperfeiçoado em posteriores estudos e aplicações, adequando-o melhor a cada utilização. O que de certa maneira, mesmo sendo uma limitação, demonstra uma excelente característica de customização ao uso. Logo, sua principal contribuição e originalidade refere-se à abordagem, complementar as existentes, proporcionada pela adoção dos processos de negócio como elo principal e norteador das ações. Portanto, o Método-Diagnóstico efetiva o foco nas atividades, na simplicidade operacional, nas relações e na definição dos processos como os condutores da organização. Propondo soluções que balizam a dinâmica, a flexibilidade e a forma colaborativa de trabalho. Garantindo grande consistência, controle e coordenação, sem proibir a flexibilidade organizacional. Esclarecendo como o conjunto de atividades, envolvendo entradas e saídas, resulta na satisfação do cliente e como a melhora desses processos repercute diretamente nas estruturas de uma organização, aumentando a sua eficiência e competitividade.
Palavras Chave: Diagnóstico organizacional; gestão por processos; método-diagnóstico.
Aluno: Richard Silva Martins
Titulo: OTIMIZAÇÃO DE LAYOUT INDUSTRIAL ATRAVÉS DE ALGORITMO DE INCIDÊNCIA DE FAMÍLIA
Defesa: 25 de fevereiro de 2015
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. Jacques Nelson Corleta Schreiber (Coorientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Denis Rasquin Rabenschlag (UFSM)
RESUMO: As organizações manufatureiras necessitam, cada vez mais, de tecnologias e inovações aplicadas aos seus sistemas para continuarem competindo eficazmente com seus concorrentes. Nesse contexto, este estudo tem como objetivo investigar o Close Neighbour Algorithm para otimização de layout industrial com observação de conceitos de Gestão por Processos aplicados à manufatura. O conceito de células de produção foi utilizado por meio da aplicação de análise dos processos. Os dados foram tratados através do algoritmo Close Neighbour visando à aproximação dos processos. Como resultado tem-se a proposição de uma configuração de arranjo das atividades em função dos processos necessários ao desenvolvimento do produto. Os resultados demonstram que o método proposto traz diminuição no percurso dos materiais em processo na ordem de 25% atestando, desta forma, a relevância da proposição.
Palavras-chave: Processo; Layout; Algoritmo; Close Neighbour.
Aluno: Roger Douglas Machado
Titulo: MINERAÇÃO DE DADOS EDUCACIONAIS: ESTUDO DA EVASÃO NOS CURSOS DE GRADUAÇÃO PRESENCIAIS
Defesa: 09 de dezembro de 2015
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador ), Prof. Dr. Elpídio Oscar Benitez Nara(Coorientador), Prof. Dr. Rolf Fredi Molz (UNISC), Prof. Dr. Raul Wazlavick(UFSC)
RESUMO: A evasão nos cursos de graduação coloca vários desafios para os educadores. Há várias questões que devem ser cuidadosamente consideradas ao abordar tais problemas relacionados com a permanência do aluno nos cursos de graduação presenciais. O presente estudo permitiu identificar as questões mais relevantes, segundo os coordenadores de curso, no que tange o problema da evasão nos cursos de graduação presenciais. Foram analisados os dados dos últimos 20 anos do curso de Ciência da Computação de uma Instituição de Ensino Superior. Em cima destes, foram utilizadas técnicas de mineração de dados visando explorar as questões apontadas pelos coordenadores de curso. Aplicando o algoritmo Apriori com o apoio do algoritmo J48, foi possível extrair regras para cada uma das questões mais pertinentes. Os resultados encontrados permitiram identificar disciplinas chaves, associadas tanto ao sucesso quanto ao insucesso do aluno no curso. Com base nas regras encontradas, pode-se afirmar que o desempenho do aluno nas disciplinas iniciais, que compreendem o primeiro ano do curso, está fortemente associado à decisão de desistir ou permanecer no curso.
Palavras-chave: mineração de dados, educação, evasão escolar.
Aluno: Tiago Guerra
Titulo: ANÁLISE E DIAGNÓSTICO DO SISTEMA DE PRODUÇÃO DE LEITE NO VALE DO TAQUARI – RS: RETROSPECTIVAS E PERSPECTIVAS
Defesa: 25 de fevereiro de 2015
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof.ª Dra. Lisianne Britez Benittez (UNISC), Prof. Dr. Andreas Dittmar Weise (UFSM)
RESUMO: A produção de leite faz parte da história e do desenvolvimento da região do Vale do Taquari, RS. Ao longo dos anos o setor agrícola sofreu diversas intervenções de investimentos que colocaram a região entre uma das principais do Brasil em relação a produtividade. Entretanto, ao mesmo tempo em que o desenvolvimento cresce surgem problemas de oferta e demanda e de desequilíbrio nos investimentos que colocam em crise o setor. Ao encontro da evolução da produção de leite no mundo, regiões de países desenvolvidos se destacam por serem capazes de encontrar o ponto ideal entre aumento de produtividade e investimentos, sendo a região da Galícia, na Espanha, um modelo de sucesso na implementação de produtividade na produção leiteira. Neste contexto realizou-se uma retrospectiva das ações e do desenvolvimento obtido na região Galega em um período de 10 anos com o propósito de avaliar as experiências e os resultados obtidos de modo a utilizar o conhecimento desta experiência na implantação de ações na região do Vale do Taquari. Após, realizou-se nova retrospectiva através de pesquisa em base de dados do Vale do Taquari e gerou-se nova base de dados atualizada para que fosse viável a comparação da evolução da região com relação a sua produção de leite. Através de pesquisa aplicada, explicativa e de observação compreendeu-se os fatos envolvidos no desenvolvimento destas duas regiões. Para realizar esta retrospectiva e comparar os dados aplicou-se pesquisa com amostragem probabilística onde apresentou-se comparação com os dados existentes. Foram gerados mapas para comparação dos resultados e sugeriu-se ações afim de utilizar os aspectos positivos encontrados na Galícia, gerando perspectivas para a produção do Vale. Conclui-se que a Galícia sofre com relação a algumas decisões do passado, sendo a redução do número de pequenas e médias propriedades um problema cada vez maior. O Vale do Taquari demonstra um crescimento significativo na produção de leite e na sua produtividade, entretanto sofre com inúmeras propriedades que se tornam insolventes. É necessária a ação de agentes externos junto ao produtor para que ele seja capaz de viabilizar a atividade no campo acrescentando renda e melhorando o desenvolvimento regional.
Palavras-chave: Produção de leite, Diagnóstico regional; Planejamento Estratégico.
Aluno: Vitor Hugo Porto de Oliveira
Titulo: ANÁLISES DE INDICADORES DE PERFORMANCES DOS PLANOS DE PARTICIPAÇÃO EM LUCROS E RESULTADOS
Defesa: 24 de fevereiro de 2015
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof. Dr. Jacques Nelson Corleta Schreiber (Coorientador), Prof.ª Dra. Liane Mählmann Kipper (UNISC), Prof. Dr. Julio Cezar Mairesse Siluk (UFSM)
RESUMO: O PLR (Participação em Lucros e Resultados) é uma modalidade de negociação entre empresas e empregados que vem crescendo ao redor do mundo, particularmente em países economicamente mais desenvolvidos; tais como Japão, Estados Unidos, Inglaterra, Alemanha e França. O PLR no Brasil, surge como um incentivo social, onde os empregados têm a oportunidade de auferir ganhos através dos resultados que ajudaram a construir, e as empresas; a oportunidade de potencializar resultados; de produtividade, qualidade e lucratividade através do comprometimento de seus empregados. Pesquisa foram realizadas em periódicos nacionais e internacionais e os resultados indicaram que há grandes oportunidades de pesquisa sobre o tema no Brasil. A sombra do recente regramento da lei, que orienta os contratos de participação em lucros e resultados, as empresas vêm negociando com seus empregados os PLR. Contudo, não são raros verem-se contratos que transparecem o inadequado uso desta poderosa ferramenta. Várias organizações e profissionais liberais estão oferecido seus serviços como suporte nas negociações de PLR, porém o cunho de atuação destes, são na sua maioria no âmbito jurídicos. Raras são as pesquisas que trazem uma visão de gestão organizacional para o meio destas discussões. A legislação em vigência, nasceu com o propósito de incentivar as relações entre capital e trabalho, tendo como foco principal o aumento da produtividade das empresas através do comprometimento de seus empregados. A atual pesquisa foi realizada com 232 contratos de acordos de PLR, realizados no Brasil entre 2013 e 2014. Esses contratos foram baixados dos sites de sindicatos na internet e outros foram obtidos diretos com Sindicatos e Empresas. Estes contratos foram analisados e correlacionados a modelos de gestão. Assim sendo, a sugestão é de que se use os fundamentos do PNQ e os dez indicadores mais frequentemente encontrados em contratos de PLR como conjunto de indicadores de desempenho padrão de PLR. Além do que se recomenda, que a escolha dos indicadores e o estabelecimento dos objetivos, siga a metodologia SMART, com o propósito de sistematizar o processo. O conjunto de indicadores padrão de PLR, foi desenvolvido com o propósito de servir como referência para as empresas, empregados e sindicatos em suas negociações de PLR.
Palavras-chave:Participação em Lucros e Resultados (PLR), gestão organizacional, Prêmio Nacional da Qualidade (PNQ), SMART (Specific, Measurable, Attainable, Realistic e Time b und).
Aluno: Rafael Chaves
Titulo: ESTRUTURAÇÃO DO PROCESSO DE DESENVOLVIMENTO DE PRODUTOS UTILIZANDO GESTÃO DE PROCESSOS: NA BUSCA DE PADRONIZAÇÃO E MONITORAMENTO PARA MELHORIA CONTÍNUA.
Defesa: 06 de março de 2015
Banca examinadora: Prof.ª Dra. Liane Mahlmann Kipper(Orientadora), Prof. Dr. Elpidio Oscar Benitez Nara(UNISC), Prof.ª Dra. Ana Julia Dal Forno(UFSC).
RESUMO: O Processo de Desenvolvimento de Produtos (PDP) é fundamental para empresas, pois relaciona necessidades de mercado com as estratégias da organização na geração de novos produtos. Para que as empresas se mantenham competitivas é fundamental que o seu PDP seja eficiente e eficaz. Este trabalho realizou um estudo no PDP de uma empresa de base tecnológica sediada na região do Vale do Rio Pardo – RS. Utilizando a metodologia da pesquisa-ação. Através de entrevistas com os stakeholders e uso da gestão por processo foi realizado o diagnóstico do processo de desenvolvimento de produtos da empresa. Tendo como base este diagnóstico foi realizada análise, definido o grau de maturidade do PDP na organização utilizando o Modelo de Referência de Rozenfeld et al. (2006). Com a estruturação e análise do processo foi possível ter uma visão sistêmica, facilitando identificação de melhorias. Foram propostas melhorias no pré-desenvolvimento quanto à aplicação do QFD para identificar os requisitos dos clientes internos, criação de um comitê para avaliação da viabilidade do projeto e definidos requisitos para avaliação da fase. No desenvolvimento as melhorias propostas foram a aplicação do FMEA de processo, validação dos processos e protótipos de forma interfuncional, produção de lote piloto, otimização da produção, treinamento técnico para vendedores, suporte técnico e qualidade, aplicação do QFD para identificação voz do cliente externo e gates em cada fase. No pós-desenvolvimento as melhorias propostas foram: o acompanhamento contínuo do ciclo de vida do produto e análise de descontinuidade do produto. Após apresentadas as propostas de melhorias, o processo foi redesenhado, validado e padronizado. Foi possível realizar a aplicação das ferramentas de gestão, o QFD no pré desenvolvimento onde foram identificados os requisitos dos clientes internos e seu grau de importância e o FMEA de processo após os desenhos inicias dos produtos, onde foram identificadas diversas oportunidades de melhorias, como treinamentos, criação de procedimentos, instruções de parâmetros de processo e aquisição de instrumentos de medição. Finalmente foram propostos indicadores de desempenho para em cada fase do processo de desenvolvimento de produtos da empresa para medir sua eficiência e eficácia.
Palavras-chave: Processo de Desenvolvimento de Produtos (PDP), QFD, FMEA, Indicadores de Desempenho.
Aluno: Rafael Peiter
Titulo: DESENVOLVIMENTO DE UM ALGORITMO PARA DETECÇÃO DE OBSTÁCULOS UTILIZANDO VISÃO ESTÉREO
Defesa: 18 de dezembro de 2015
Banca examinadora: Prof. Dr. Rolf Fredi Molz(Oriantador), Prof. Dr. Leonel Pablo Tedesco(Coorientador), Profª. Dr. Ricardo Melo Czekster(UNISC), Prof. Dr. Rodrigo da Silva Guerra(UFSM).
RESUMO: Um problema agravante e que vem crescendo ao longo dos anos são os acidentes de trânsito. Eles podem ocorrer tanto em ambientes urbanos quanto industriais, causando prejuízos físicos às vítimas e financeiro às empresas. Este trabalho estudou metodologias a fim de auxiliar na diminuição de acidentes em um ambiente industrial e urbano, através da detecção de obstáculos, utilizando o conceito de visão estéreo. Para tanto, foi realizado um levantamento bibliográfico para determinar os principais algoritmos utilizados na literatura para detecção de objetos e pessoas. Através desta revisão foi possível desenvolver um algoritmo e posteriormente realizar ensaios em ambientes internos e externos para detectar os obstáculos. Apesar das dificuldades encontradas devido ao modelo de câmera utilizado, os resultados obtidos no ambiente interno mostraram-se promissores para uma futura implementação em um ambiente industrial.
Palavras-chave: Visão estéreo, acidentes, ambientes urbanos e industriais.
Aluno(a): Cátia Milena Lopes Machado
Título: FERRAMENTA COMPUTACIONAL PARA APOIO À MINIMIZAÇÃO DOS DESPERDÍCIOS DO PROCESSO PRODUTIVO
Defesa: 06 de março de 2014
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof.ª Dra. Rejane Frozza (Coorientadora), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC), Prof. Dr. João Luís Tavares Silva (UCS).
Resumo: A busca pela competitividade é um dos maiores desafios para as organizações. Para que as organizações obtenham sucesso, é necessário que suas atividades sejam gerenciadas e coordenadas de forma transparente e sistemática. Neste sentido, Lean Manufacturing é uma filosofia que pode auxiliar no desenvolvimento sustentável, como redução de água, energia, matérias-primas e resíduos ambientais. O foco é a minimização do desperdício, definido como tudo aquilo que não é necessário no ciclo produtivo de um produto ou serviço. Já a manipulação do conhecimento, em um processo de Gestão do Conhecimento, pode auxiliar na compreensão e identificação destes desperdícios. A Gestão do Conhecimento preconiza uma forma de se trabalhar, uma nova cultura organizacional, na qual o ambiente e os valores permitem gerar a motivação necessária à aprendizagem, transferência e aplicação do conhecimento. E uma maneira de identificar o conhecimento nas empresas pode ser através do uso de ferramentas do Lean Manufacturing como o mapa de fluxo de valor, que permite a identificação do fluxo de material e informação dentro de uma organização. Mapear auxilia a identificar as fontes de desperdícios no fluxo de valor. Assim, o objetivo geral é propor melhorias no processo produtivo e gerencial, a partir da identificação dos principais desperdícios envolvidos na produção, a fim de desenvolver uma ferramenta computacional focada na gestão por processos enxutos, que possibilite uma tomada de decisão gerencial e que leve à minimização destes desperdícios, baseado nas suas causas, em uma empresa de médio porte no Rio Grande do Sul. Dos principais resultados encontrados constatou-se que com a utilização de ferramentas do Lean Manufacturing como o mapa de fluxo de valor, foi possível verificar as falhas existentes nos processos como desperdícios, falta de controle e informações. Juntamente com a proposta de melhorias para ações futuras, o desenvolvimento do sistema trará como benefícios a manipulação do conhecimento organizacional, a fim de gerar análises para os processos decisórios da empresa e ações de melhorias. As informações extraídas do mapa de fluxo de valor fundamentaram o desenvolvimento da base de conhecimento do sistema computacional, visando à redução dos estoques intermediários a partir da manipulação do conhecimento. A proposta foi reorganizar e obter sucesso no processo de gestão, gerando lucros através da minimização de desperdícios apontados pelo mapa de fluxo de valor. Como resultado, destaca-se o controle de materiais (kanban) que são utilizados nas ordens de produção; o relatório de controle de estoques intermediários, contribuindo para a minimização dos desperdícios de movimentação desnecessária, superprodução, transporte e espera; e, de uma forma geral, contribuindo para a redução dos custos operacionais.
Palavras-chave: Lean Manufacturing, Gestão do Conhecimento, Gestão de Produção, Mapa do Fluxo de Valor, Sistemas Baseados em Conhecimento.
Aluno(a): Charles Varlei Neu
Título: DESENVOLVIMENTO DE UM SISTEMA DE RECONHECIMENTO DE SINAIS DE TRÂNSITO UTILIZANDO PROCESSAMENTO DE IMAGENS COM OPENCV PARA UM ROBÔ HUMANOIDE
Defesa: 12 de fevereiro de 2014
Banca examinadora: Prof. Dr. Leonel Pablo Tedesco (Orientador), Prof. Dr. Rolf Fredi Molz (Coorientador), Prof. Dr. Ricardo Melo Czekster (UNISC), Prof. Dr. Rodrigo da Silva Guerra (UFSM).
Resumo: Esta dissertação apresenta um método de reconhecimento de faixas de travessia de pedestres, aliado aos conceitos teóricos necessários para elaborar um sistema de visão computacional para reconhecer padrões e identificar objetos do mundo real. São utilizadas funções da biblioteca de processamento de imagens OpenCV (Intel Open Source Computer Vision Library) para o desenvolvimento deste sistema, que foi projetado para ser executado em um robô humanoide DARwIn-OP (Dynamic Anthropomorphic Robot with Intelligence - Open Platform). Para a avaliação e validação do sistema, foram feitos testes em um ambiente real de trânsito, considerando diferentes condições de visibilidade e luminosidade. Os resultados mostram a eficiência do uso de funções OpenCV para este tipo de sistemas, que exigem um tempo de resposta rápida, em um hardware com capacidades, principalmente de memória e processamento, reduzidas.
Palavras-chave: OpenCV, Visão Computacional, DARwIn-OP, sinais de trânsito.
Aluno(a): Edu Grieco Mazzini Júnior
Título: O VALOR PERCEBIDO DO DESIGN DE NOVOS PRODUTOS NAS MICRO E PEQUENAS EMPRESAS DO SETOR MOVELEIRO
Defesa: 27 de fevereiro de 2014
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof.ª Dra. Liane Mählmann Kipper (Coorientadora), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Julio Cezar Mairesse Siluk (UFSM).
Resumo: Com a intenção de promover a melhoria nos processos de desenvolvimento e execução dos produtos das organizações moveleiras, este estudo buscou definir o valor atribuído ao design desenvolvido, considerando-se a percepção dos participantes envolvidos nos processos de concepção e execução de novos produtos, através da aplicação do método Quality Function Deployment (QFD), de forma a identificar as principais divergências entre diferentes visões sobre planejamento e execução de novos produtos, dentro de organizações moveleiras de micro e pequeno porte. Para este fim, foi desenvolvido um estudo de caso múltiplo, realizado em três micro e pequenas empresas moveleiras localizadas no município de Santa Maria, Rio Grande do Sul. Esta pesquisa foi desenvolvida a partir do mapeamento e da qualificação dos processos de concepção de produtos com base no design, concentrando-se em tópicos que cercam o design exercido pela gerência de planejamento de novos produtos e que exercem impacto no produto final, tanto em aspectos tangíveis como intangíveis. Em relação à gerência de produção, o estudo buscou identificar os processos de transferência e controle de informações, como também a qualificação do design desenvolvido pela gerência de planejamento. O estudo ainda abordou aspectos relacionados aos clientes finais, na forma de entrada dos processos de desenvolvimento de produtos, incluindo a adequação do produto às necessidades exigidas, a avaliação de processos e ferramentas para formulação do projeto e a definição de aspectos morfológicos, estruturais, ergonômicos e funcionais do produto desenvolvido. Como resultado, foi possível detectar que a inclusão do design na indústria moveleira passa por uma série de dificuldades, principalmente relacionadas com a sua localização dentro da estrutura organizacional, distanciando-se de funções referentes ao planejamento executivo e produtivo dos projetos de mobiliário e fragmentando, assim, o processo de desenvolvimento e execução de novos produtos.
Palavras-chave: Design de produto. Gerenciamento do projeto. Indústria moveleira. Mobiliário sob encomenda. QFD.
Aluno (a): Evandro Rodrigues
Título: DESENVOLVIMENTO E APLICAÇÃO DE MODELO COMPUTACIONAL PARA MONITORAMENTO DE EXERCÍCIOS DE EQUILÍBRIO NA REABILITAÇÃO DE PACIENTES DA ÁREA DE FISIOTERAPIA
Defesa: 28 de fevereiro de 2014
Banca examinadora: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Leonel Pablo Tedesco (Coorientador), Prof. Dr. Adilson Ben da Costa (UNISC), Prof. Dr. Rodrigo da Silva Guerra (UFSM).
Resumo: Durante o processo de recuperação da funcionalidade física de indivíduos a área de Fisioterapia utiliza de artefatos tradicionais, como, por exemplo, bola e plataforma elástica, a fim de estimular o envolvimento e engajamento destas pessoas durante as sessões. Assim como as demais áreas sociais e de negócios, essa também pode ser contemplada pelos avanços da tecnologia, beneficiando tanto os profissionais da área quanto os usuários dos serviços por ela prestados. Diversas clínicas de fisioterapia utilizam de jogos comerciais, como o Nintendo Wii, por exemplo, como elemento de apoio no processo de recuperação dos indivíduos. Porém, pelo fato de estes jogos serem desenvolvidos para um público generalizado, muitas vezes estes recursos podem não ser adequados e utilizados por pessoas que não possuem, em seu devido estágio de recuperação da função física, mobilidade suficiente para interagir. Esta dissertação tem como objetivo desenvolver e aplicar um sistema computacional na área de Fisioterapia, avaliando a sua utilização na terapia de indivíduos em processo de recuperação do equilíbrio corporal, como um novo meio de interatividade para o paciente e uma nova ferramenta para análise e armazenamento de dados estatísticos para os profissionais da área. Os objetivos definidos para o projeto foram alcançados através de testes realizados tanto com pacientes da clínica de Fisioterapia quanto com voluntários da equipe de suporte ao projeto. O sistema mostrou-se flexível com relação às possibilidades de parametrização por parte do fisioterapeuta, ajustando-o de acordo com as características próprias de cada usuário. Além disto, os resultados alcançados pela avaliação automática de movimentos baseada na versão reduzida da Escala de Berg e a visualização dos dados estatísticos pelos profissionais foram satisfatórios quanto aos objetivos propostos pelo projeto.
Palavras-chave: exergame, equilíbrio corporal, Escala de Berg, Kinect.
Aluno(a): Gilson Augusto Helfer
Título: CHEMOSTAT: DESENVOLVIMENTO DE SOFTWARE PARA ANÁLISE EXPLORATÓRIA DE DADOS MULTIVARIADOS
Defesa: 24 de fevereiro de 2014
Banca examinadora: Prof. Dr. Luciano Marder (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof. Dr. Adilson Ben da Costa (UNISC), Prof. Dr. Marco Flôres Ferrão (UFRGS).
Resumo: Este trabalho, motivado pelo vasto uso da quimiometria associado em grande parte a dependência de aplicativos que requerem licença de operação e/ou uso de rotinas, teve com objetivo desenvolver um software gratuito, de uso acadêmico, de fácil instalação e manuseio, sem necessidade de programação em nível de usuário, para análise exploratória de dados. O software desenvolvido e denominado ChemoStat, contempla as técnicas de análise de agrupamento hierárquico (HCA), análise de componentes principais (PCA), análise de componentes principais por intervalos (iPCA), assim como, técnicas de correção, transformação dos dados e detecção de amostras anômalas. Os dados podem ser importados através da área de transferência, arquivos de texto, ASCII ou do FT-IR Perkin-Elmer (.sp). É possível gerar uma grande variedade de gráficos e tabelas que permitem a análise dos resultados os quais podem ser exportados em inúmeros formatos. As principais funcionalidades do software foram exploradas utilizando espectros no infravermelho médio e próximo de óleos vegetais e imagens digitais de diferentes tipos de óleo diesel comercial. Como forma de validar os resultados do software, os mesmos conjuntos de dados foram analisados utilizando o Matlab® e os resultados em ambos os aplicativos coincidiram nas mais diversas combinações. Além da versão desktop, o reuso dos algoritmos permitiu disponibilizar uma versão online que oferece uma experiência única via web.
Palavras-chave: software, quimiometria, análise exploratória de dados.
Aluno(a): Giuliano José Forgiarini
Título: IEP: FERRAMENTA PARA MEDIÇÃO DA EFICIÊNCIA PRODUTIVA EM INDÚSTRIA FRIGORÍFICA BOVINA
Defesa: 27 de março de 2014
Banca examinadora: Prof. Dr Luciano Marder (Orientador), Prof. Dr. Rubén Edgardo Panta Pazos (Coorientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Leonir Luíz Pascoal (UFRGS).
Resumo: Considerando a sua importância na economia brasileira nos tempos atuais, as empresas do ramo frigorífico bovino buscam a excelência em produtividade, tornando-se nítida a necessidade destas em adotar critérios e ferramentas para medições de seus processos produtivos com o objetivo de avaliar sua produtividade. Entretanto, é de conhecimento a falta de material bibliográfico, bem como de trabalhos de pesquisas realizados nesta área, que possam subsidiar a construção de instrumentos de medição de produtividade para indústrias do ramo devido ao fato destas terem despontado recentemente no cenário econômico nacional. Este trabalho propõe, portanto, a construção de um novo indicador de produtividade para empresas do ramo frigorífico bovino, utilizando a análise multivariada como ferramenta principal (através do método da PCA – Análise por Componentes Principais) e tomando como objeto de estudo a empresa Frigorífico Silva Indústria e Comercio Ltda. Primeiramente, foi realizada uma avaliação do atual indicador de produtividade utilizado pela empresa apurado nos Setores de Desossa e Embalagem Secundária: o kghomem- hora através da aplicação de um questionário em dezesseis pessoas (todos gestores e/ou especialistas de processos). Após esta etapa, foram definidas as variáveis de processo a serem medidas, obtendo-se um grupo de vinte e duas variáveis a serem observadas por um período de sessenta e três dias, definindo-se, assim, a matriz de dados para a análise. Mediante esta, aplicou-se o método da PCA para, primeiramente, identificar e excluir as variáveis de menor peso estatístico. Posteriormente, determinou-se os pesos estatísticos das variáveis remanescentes, viabilizando a construção dos índices de produtividade para cada observação, os quais foram denominados IEP (Índice de Eficiência Produtiva). Após a obtenção do IEP para cada.
Aluno (a): Imar de Souza Soares Júnior
Título: DESENVOLVIMENTO DE TURBINA PARA REAPROVEITAMENTO DE ENERGIA ELÉTRICA EM TUBULAÇÕES DE AR
Defesa: 23 de maio de 2014
Banca examinadora: Prof. Dr. Leonel Pablo Tedesco (Orientador), Prof. Dr. Adilson Ben da Costa (Coorientador), Prof. Dr. Rolf Fredi Molz (UNISC), Prof. Dr. Ademar Michels (FAHOR).
Resumo: O consumo de energia proveniente de processos industriais cada vez mais automatizados, somados a demanda de energia necessária para atender grandes centros urbanos, impulsiona a sociedade e órgãos públicos a exigirem de empresas soluções que contribuam para minimizarem o impacto causado ao ambiente pelos modelos atuais de produção, seja em forma de pesquisa científica, seja em caráter de desenvolvimento de tecnologias ambientalmente sustentáveis. Apoiado por estas considerações e, concomitante a descrição dos principais tipos de turbinas hidráulicas e eólicas utilizadas para a geração de energia elétrica e que serviram como base para a concepção do protótipo, foi desenvolvido o projeto de um modelo de turbina eólica para posteriormente ser confeccionada e ensaiada. Este equipamento possui como finalidade principal o de reaproveitar a energia desperdiçada em sistemas de ventilação ou de geração de vácuo. De forma a atingir os objetivos propostos, foi utilizado um equipamento denominado de impressora 3-D que permitirá a confecção dos elementos que servirão como base para a construção da turbina. Logo após esta etapa, utilizando de instrumentos de precisão eletrônicos que permitam mensurar parâmetros como velocidade do vento e pressão estática e dinâmica, foi analisado o comportamento da turbina para, posteriormente, analisar a eficiência da mesma. Após os ensaios e utilizando de cálculos específicos foi estimado a eficiência da turbina, obtendo valores de reaproveitamento energético da ordem de 34,81% e perda de carga de 12,75%, servindo como referências para análise de custo/benefício e contribuindo para a implantação de uma cultura focada na sustentabilidade.
Palavras-chave: Reaproveitamento de energia, turbina eólica, perda de carga.
Aluno (a): Luiz Afonso Storch
Título: O USO DA GESTÃO DE PROCESSOS EM UM SISTEMA JIT/KANBAN
Defesa: 27 de fevereiro de 2014
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (Orientador), Prof.ª Dra. Liane Mählmann Kipper (Coorientadora), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Julio Cezar Mairesse Siluk (UFSM).
Resumo: Diante da constante exigência dos clientes para as organizações ofertarem melhores produtos com preços mais atrativos, essas precisam desenvolver e melhorar continuamente seus processos internos, que é a parte do seu ciclo contínuo de produção/consumo. A falta de previsibilidade e a falta de cooperação intra-organizacional também relaciona-se a demanda de clientes, que transfere para a cadeia produtiva da organização a dificuldade de programação de compra, produção e estocagem, caracterizada pela indecisão quanto ao que comprar. Para contribuir para o alcance desses desafios existem diversas ferramentas e metodologias, o objetivo geral desse trabalho foi diagnosticar a existência de compatibilidade entre JIT/KANBAN e Gestão de Processos, na visão dos usuários do sistema de manufatura, e simular possíveis melhorias. A metodologia adotada foi pesquisa qualitativa, considerando as variáveis envolvidas. De acordo com seus objetivos foi exploratória, visto que foi efetuada revisão bibliográfica, e descritiva, devido ao levantamento de dados realizado. Para os procedimentos de coleta de dados foi adotado o estudo de caso. Assim, inicialmente foi realizada revisão teórica de alguns sistemas, desde o JIT/KANBAN até a Gestão de Processos, abordando também simulação, para o levantamento de dados e realização do estudo de caso. Dos principais resultados encontrados observou-se que independente da metodologia que a organização escolher operacionalizar, a busca deve ser sempre pelo incremento em seu resultado e mesmo com a diversidade de ferramentas disponíveis é necessária a mobilização e o envolvimento das pessoas, pois são elas fundamentalmente que fazem com que o projeto alcance sucesso. Durante o trabalho foi abordada justamente a percepção das pessoas sobre seu ambiente de trabalho na rotina diária. Destaca-se ainda que o resultado do trabalho demonstra que o uso conjunto de sistemas distintos pode contribuir para alcançar o objetivo
Aluno (a): Nadiesca Cardoso Homrich Scherer
Título: ASPECTOS EMOCIONAIS E COGNITIVOS DE ESTUDANTES EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
Defesa: 28 de fevereiro de 2014
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof.ª Dra. Rejane Frozza (Coorientadora), Prof.ª Dra. Liane Mählmann Kipper (UNISC), Prof.ª Dra. Adriana Soares Pereira (UFSM).
Resumo: Em cursos a distância, a comunicação entre professor e estudante ocorre através de um Ambiente Virtual de Aprendizagem (AVA). Neste contexto, diversos autores da área afirmam a existência de uma forte relação entre a emoção e a cognição, e que estabelecer uma relação de afetividade entre professor e aprendiz pode refletir positivamente no aprendizado. Por isso, conhecendo e fazendo uso das emoções do estudante, pode-se melhorar a interação e contribuir para a sua motivação. Os estudantes possuem estilos cognitivos diferentes, ou seja, diferentes formas de adquirirem ou processarem as informações. Cada estilo cognitivo possui características e preferências de estratégias de aprendizagem que devem ser respeitadas e contempladas pelo professor no momento da elaboração do material didático. Para tornar um AVA personalizável, adaptando-se de acordo com o estilo cognitivo e a emoção do estudante, diferentes materiais pedagógicos (táticas de ensino) foram elaborados. Isto se justifica porque apresentar o mesmo material didático para todos os estudantes pode fazer com que o resultado do aprendizado não seja o mesmo para todos, por conta das diferentes características cognitivas que cada estudante possui. Buscando o objetivo geral do trabalho que é adaptar o AVA de acordo com estes aspectos, algumas etapas foram necessárias, como inferir a emoção e o estilo cognitivo do estudante; estudar as características dos estilos cognitivos para elaborar as táticas pedagógicas e o material didático; definir as regras de interação dos agentes pedagógicos, considerando os aspectos inferidos durante sua interação com o ambiente. E, finalmente, para fazer a validação deste trabalho, dois grupos de estudantes do ensino médio e superior, subsidiaram os resultados analisados através do Método Clínico de Piaget e de técnicas de Mineração de Dados. Como resultado da relação entre a emoção e a cognição em AVAs, destaca-se a importância de melhorar a qualidade da interação, e de inferir a emoção do estudante para subsidiar esta melhoria.
Palavras-chave: Estilo cognitivo, Relação emoção-cognição, Ambientes virtuais de aprendizagem.
Aluno(a): Ricardo Pedó
Título: ANÁLISE DE GRANULOMETRIA E PERCENTUAL DE TALO EM TABACO PROCESSADO ATRAVÉS DE TÉCNICAS DE PROCESSAMENTO DE IMAGENS
Defesa: 28 de fevereiro de 2014
Banca examinadora: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Leonel Pablo Tedesco (UNISC), Prof. Dr. Rodrigo da Silva Guerra (UFSM).
Resumo: A produção de tabaco segue ocupando posição de destaque na economia nacional, evidenciando a importância desta cultura, principalmente para a região sul do país, fomentando os esforços para melhorar a qualidade deste produto e a maneira como é produzido. Em indústrias de beneficiamento de tabaco, uma das etapas envolvidas engloba a fase conhecida como debulhação das folhas, a qual consiste em separar o talo da folha. A análise do produto sendo beneficiado, que verifica se este está dentro das especificações do cliente, é de fundamental importância no decorrer deste processo. Entretanto, atualmente, são realizadas verificações visuais durante o processo para validar estas especificações através de pessoas com muita experiência. Além disto, há um controle de qualidade que verifica, de forma minuciosa, estas mesmas informações, porém de forma off-line. Assim, este projeto esteve voltado a compreender como ocorre atualmente a verificação do controle de qualidade deste produto, com o objetivo principal de elaborar um sistema computacional para analisar, por meio de técnicas de processamento de imagens, o tamanho das folhas de tabaco processadas e a quantidade de talo existente. Além disso, visou realizar um período de validação deste sistema, discutindo seus pontos positivos e negativos, abordando as possibilidades de trabalhos futuros, visando torná-lo um produto que de fato possa ser útil durante o processo de beneficiamento de tabaco.
Palavras-chave: Granulometria, beneficiamento de tabaco, processamento de imagem.
Aluno(a): Ricardo Rocha Renner
Título: DESENVOLVIMENTO DE UM PROCESSO DE CLAREAMENTO DE TANINOS UTILIZANDO DIÓXIDO DE ENXOFRE (SO2) COMO ALVEJANTE
Defesa: 28 de abril de 2014
Banca examinadora: Prof. Dr. Adilson Ben da Costa (Orientador), Prof.ª Dra. Liane Mählmann Kipper (UNISC), Prof. Dr. Manoel Leonardo Martins (UFSM).
Resumo: A indústria extrativa de taninos da Acacia mearnssi De Wild (acácia negra) tem encontrado grandes dificuldades, especialmente nos últimos quatro anos, na produção de taninos clarificados devido às mudanças na forma de abate e descasque das árvores. As tecnologias de descasque mecanizado das árvores propiciam maior produtividade, menor custo e melhor aproveitamento da mão de obra, no entanto, o maior esmagamento e cominuição da casca deixaram esta mais suscetível a degradação e consequente escurecimento. Apesar do processo industrial de clareamento dos taninos ser reconhecidamente eficiente, este não tem capacidade de alvejamento de extratos concentrados com cores muito escuras. Desta forma, o objetivo desse estudo foi avaliar a clarificação de taninos de alta concentração (TAC) utilizando dióxido de enxofre como alvejante. Os experimentos foram realizados em condições experimentais controladas, onde foram avaliadas a influência da temperatura, da cor inicial do TAC, do tempo de reação, e da quantidade de alvejante. Na avaliação da qualidade do produto final foram considerados os parâmetros cor, teor de cinzas e teor de ferro. Ao todo foram feitos 40 experimentos, sendo que em 20 testou-se o alvejamento de taninos com adição de dióxido de enxofre, 14 experimentos com a adição de dióxido de enxofre e metabissulfito de sódio e 6 ensaios laboratoriais adicionando metabissulfito de sódio para alvejar o tanino. O uso de cobre metálico, sulfato de cobre e zinco metálico como aditivos foram testados em alguns ensaios. Os melhores resultados de alvejamento de taninos foram obtidos nos testes 7A, 7B, 8A e 8B, na condição de temperatura de 90 ºC e quatro horas de reação. Nos testes 7A e 7B, (com uso de SO2) houve uma redução de 53%, enquanto que nos testes 8A e 8B (com Na2S2O5) a redução da cor vermelha ficou na faixa de 65% (melhor resultado de alvejamento desse estudo). Nos testes com SO2, o ápice da redução da cor vermelha é verificada na primeira hora da reação e após esse tempo há uma diminuição do alvejamento, mesmo com novas adições do insumo, atingindo estabilidade da cor, mas não havendo clareamento após essa estabilidade. A combinação com metabissulfito de sódio em nada melhora o alvejamento. Quanto aos aditivos, o zinco metálico, ao contrário do cobre metálico e sulfato de cobre, mostrou resultados promissores quanto ao seu uso como catalisador, o que precisa ser melhor explorado em testes de maior escala.
Palavras-chave: Acacia mearnsii, alvejamento, dióxido de enxofre, taninos condensados.
Aluno (a): Roberta Cristina Kaufmann
Título: AVALIAÇÃO DE EQUIPAMENTO ESPECTRÔMETRO NO INFRAVERMELHO PRÓXIMO NO PROCESSO DE CLASSIFICAÇÃO DE TABACO
Defesa: 24 de fevereiro de 2014
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Luciano Marder (Coorientador), Prof. Dr. Adilson Ben da Costa (UNISC), Prof. Dr. Marco Flôres Ferrão (UFRGS).
Resumo: Visando o aperfeiçoamento das medições de umidade e nicotina nos processos que envolvem o setor de recebimento de tabaco, a empresa Souza Cruz S.A. adquiriu o analisador de processo TM710e, espectrofotômetro no infravermelho próximo (NIR) com sistema de medição não invasivo visto que estas variáveis estão estreitamente relacionadas com a classificação do tabaco e influenciam diretamente o valor a ser pago ao fornecedor. A metodologia utilizada para planejar e definir os parâmetros de validação foi a Orientação sobre Validação de Métodos Analíticos, definida pelo INMETRO. Através desta orientação, os resultados do TM710e podem ser comparados com os resultados das medições clássicas utilizadas pelo controle de qualidade da organização, bem como verificar seus respectivos desvios. Através dos testes para identificar a seletividade e robustez do TM710e, encontraram-se variáveis como do inadequado tempo de resposta e local de instalação do equipamento, a absorção do espectro da corda e as diferentes cores do tabaco que contribuíam para o aparecimento de incertezas e de desvios nas medições. O local de instalação do equipamento foi modificado durante este trabalho de pesquisa, bem como reduzido o tempo de resposta, fatos que, em consoante com as periódicas calibrações, contribuíram para as significativas reduções do coeficiente de variação e aumento na precisão do equipamento, e, portanto, passíveis de otimização. Verificou-se através dos experimentos e do tratamento estatístico para determinar a precisão dos métodos analíticos envolvidos e compará-las, que as características de desempenho do equipamento estão compatíveis com o exigido pelo método em estudo. De forma a reduzir os desvios e melhorar a robustez do equipamento, a variação em virtude das diferentes cores de tabaco pode ser otimizada através da calibração para cada tipo de tabaco através da automatização por um sofisticado sensor de cor ou mesmo pelo tratamento de imagens, assim como para o auto-ajuste do Trim. Poder-se-ia evitar a absorção do espectro da corda; entretanto, como a leitura deste material é eventual e o desvio gerado por tal é baixo, entende-se que com a otimização das demais variáveis seria o suficiente para melhorar o desempenho do equipamento. Dado o exposto, o objetivo de avaliar o equipamento espectrofotômetro no infravermelho próximo TM710e através do seu monitoramento, analise dos processos de compra e classificação do tabaco, quantificação dos níveis de umidade e nicotina e análise exploratória dos dados visando investigar as variáveis que interferem no desempenho do equipamento, foi concluído. Sendo que, principalmente, os resultados dos testes de precisões servem de base para a empresa definir os critérios de aceitação e implementar este.
Palavras-chave: Espectroscopia no infravermelho próximo (NIR), controle de processo, Classificação do tabaco, umidade, nicotina
Aluno(a): Sandra Valduga
Título: USO DA TÉCNICA BUSCA TABU PARA OTIMIZAÇÃO DO SEQUENCIAMENTO DE ORDENS DE PRODUÇÃO NA INDÚSTRIA DO PAPEL
Defesa: 12 de dezembro de 2014
Banca examinadora: Prof.ª Dra. Rejane Frozza (Orientadora), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. João Luis Tavares da Silva (UCS).
Resumo: A competição por mercados consumidores motiva a procura de alternativas para se realizar o aprimoramento do planejamento e controle da produção na indústria de papel. Normalmente, nas indústrias do papel a programação da produção é motivo de preocupação e, na maioria das vezes, opta-se por softwares buscando soluções ótimas ou boas do ponto de vista de redução de tempo e custo de setup, tempo de geração fluxo, atraso das tarefas e no atendimento das ordens de produção dentro de prazos de entrega e com a melhor utilização dos recursos da fábrica. Trata-se de uma ferramenta de apoio à decisão que otimiza a programação de cortes, elevando o nível de atendimento da carteira de pedidos e minimizando a perda de matéria-prima. O objetivo desse trabalho é otimizar a ferramenta Cartonline para que atenda as necessidades de empresas que fabricam papel quanto ao sequenciamento de ordens de produção de maneira a aproveitar ao máximo a configuração da fábrica de papel na geração dos mapas de produção. Gerar uma programação das ordens de produção considerando todas estas características e garantir bons resultados em tempo computacional viável é um grande desafio e agrega muito valor ao software. Para realização do trabalho proposto, foi necessária a definição de uma metodologia, envolvendo as seguintes etapas: levantamento das decisões importantes para o sequenciamento das ordens de produção com entrevistas ao especialista humano, levantamento de trabalhos relacionados ao tema da pesquisa, estudo da Busca Tabu como técnica de otimização para a ferramenta, modelagem e implementação do processo otimizado e análise dos resultados comparando o uso do sistema Cartonline antes e depois da otimização. A ferramenta otimizada trouxe benefícios quanto à capacidade de fechar mapas com menos sobras, pedidos que não conjugavam ou que conjugavam parcialmente. Também houve redução do tempo de conjugação, principalmente em conjugações nas quais o número de ordens de produção é mais elevado.
Palavras-chave: Otimização, Sequenciamento de ordens de produção, Técnica Busca Tabu.
Aluno(a): Jossandro Balardin Silva
Título: UMA CAPA PARA CADA LEITOR - RECOMENDAÇÃO DE NOTÍCIAS BASEADA NO PERFIL DO LEITOR
Defesa: 11 de janeiro de 2013
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Silvio Cesar Cazella (UFCSPA).
RESUMO: A leitura de notícias em portais online faz parte do dia-a-dia de muitas pessoas, porém encontrar notícias do seu interesse em meio a todo o universo de informações disponível pode tornar-se uma tarefa difícil dado o grande volume de conteúdo publicado diariamente nestes portais. Os sistemas de recomendação têm por objetivo reduzir a sobrecarga de informação, realizando filtragem de itens baseado no perfil de interesses do usuário, porém tais sistemas ainda apresentam alguns problemas. É relevante para recomendação de notícias, o problema do “novo usuário”, que consiste na dificuldade que os sistemas tem de recomendar itens para usuários pouco conhecidos. Considera-se “novo usuário” aquele que entra no sistema pela primeira vez ou que ainda não leu muitas notícias nem mesmo cadastrou-se. Este trabalho foi desenvolvido com objetivo de criar um sistema de recomendação de notícias, resolvendo ou amenizando o problema do novo usuário através da utilização das técnicas de redes bayesianas e clusterização. Para validar o sistema desenvolvido, realizou-se experimentos utilizando-se a base de dados de um portal de notícias regional com volume mensal de acessos em torno de 1.000.000 (hum milhão). Dos experimentos realizados avaliou-se 3 métricas: precisão (precision), abrangência (recall) e tempo. Os valores resultantes da precisão e abrangência demonstraram-se aquém do aceitável para implantação do sistema. O tempo necessário para recomendação de notícias foi alto quando considerada a quantidade de recomendações que precisariam ser geradas em um único dia, inviabilizando definitivamente a implantação do sistema desenvolvido. Com base nos experimentos realizados concluiu-se que a técnica de clusterização aliada a modelagem de uma rede bayesiana para construção de um sistema de recomendação de notícias mostrou-se ineficiente e a hipótese de que a união destas técnicas poderia resolver ou amenizar o problema do novo usuário foi refutada.
Palavras-chave: sistema de recomendação, rede bayesiana, clusterização, notícias online.
Aluno(a): Geovane Griesang
Título: DESENVOLVIMENTO DE UM MECANISMO DE COMUNICAÇÃO ENTRE AGENTES PEDAGÓGICOS EM UM AMBIENTE VIRTUAL DE APRENDIZAGEM
Defesa: 21 de janeiro de 2013
Banca examinadora: Prof.ª Dra. Rejane Frozza (Orientadora), Prof. Dr. Rolf Fredi Molz (Coorientador), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC), Prof.ª Dra. Adriana Soares Pereira (UFSM).
RESUMO: A aprendizagem é uma das mais importantes habilidades do ser humano. Com isso, diversas táticas e tecnologias estão sendo usadas para motivar os estudantes na aquisição de novos conhecimentos. A tecnologia da informação está cada vez mais presente, como por exemplo, nos Sistemas Tutores Inteligentes (STI) que têm sido utilizados no processo de ensino-aprendizagem. O STI desenvolvido na UNISC (Universidade de Santa Cruz do Sul) é um projeto de pesquisa de professores, estudantes, e ex-estudantes da universidade. Esse ambiente vem recebendo diversas atualizações durante os últimos anos, como por exemplo, a inserção de dois agentes pedagógicos com emoções para interação com os estudantes. No entanto, não havia interação entre esses agentes. Portanto, o desenvolvimento de um mecanismo de comunicação entre esses agentes pedagógicos é o foco deste trabalho. Além dos agentes tutor e companheiro, já existentes no STI, também foi desenvolvido o agente facilitador, que se comunica com os agentes pedagógicos para determinar quem deve interagir com o estudante. Como o ambiente é reativo (gera uma resposta para um estímulo), o agente escolhido deve ter a habilidade de tratar o estímulo gerado pelo estudante no STI. Como mais de um agente pedagógico pode responder a um mesmo estímulo, uma variação do método da roleta (algoritmos genéticos) foi desenvolvida para determinar qual agente deve iniciar a interação com o estudante. O protocolo de comunicação/interação e o formato das mensagens trocadas entre os agentes foram modelados com base na fundamentação FIPA (Foundation for Intelligent Physical Agents). Por fim, cenários de interação foram gerados para a realização de testes, no conteúdo referente ao “Novo Acordo Ortográfico da Língua Portuguesa”, com objetivo de avaliar o mecanismo desenvolvido.
Palavras-chave: processo de ensino-aprendizagem, sistemas tutores inteligentes, sistemas virtuais de aprendizagem, mecanismo de comunicação entre agentes pedagógicos.
Aluno(a): Jaime André Back
Título: DESENVOLVIMENTO DE UM SISTEMA EMBARCADO VOLTADO AO GERENCIAMENTO DA ENERGIA ELÉTRICA EM SISTEMAS INDUSTRIAIS
Defesa: 26 de fevereiro de 2013
Banca examinadora: Prof. Dr. Leonel Pablo Tedesco (Orientador), Prof. Dr. Rolf Fredi Molz (UNISC), Prof. Dr. Ivan Müller (UFRGS).
RESUMO: Este trabalho apresenta o desenvolvimento de um sistema embarcado para monitoração da energia elétrica em processos industriais. O objetivo principal deste estudo foi desenvolver uma metodologia para o gerenciamento da energia elétrica (monitoração, aquisição e análise), através da coleta de parâmetros elétricos, utilizando para isso técnicas de processamento digital de sinais (DSP). Os dados coletados permitiram, de forma rápida e precisa, a detecção de perturbações elétricas, além do registro de consumo de energia elétrica nos processos de produção possibilitando assim traçar a curva de demanda da empresa. Inicialmente, o trabalho foi desenvolvido em laboratório utilizando protótipos e ferramentas de simulação, com o intuito de comprovar a validade da proposta. Posteriormente, se desenvolveu o dispositivo embarcado (hardware e software) responsável pela aquisição e registro dos sinais, utilizando tecnologias de baixo custo, como microcontroladores dsPIC e plataformas como o FriendlyARM® MINI2440. Por fim, para análise offline dos dados, foram criados dois aplicativos: um para rodar em computador de propósito geral (PC), utilizando o Matlab®; e outro, derivado do primeiro, para rodar no dispositivo embarcado. Ambas aplicações utilizaram como principal técnica de detecção de perturbações as Transformadas Wavelets Discretas. Como resultado, a criação de um sistema completo para monitoração e análise de parâmetros elétricos, servindo como ferramenta de auxílio para o gerenciamento da energia elétrica nos processos industriais. Por fim, com a finalidade de demonstrar a eficácia deste sistema, foi realizado um estudo de caso que compreendeu a sua instalação em uma linha de beneficiamento de tabaco, alimentada por uma subestação de 500 kVA.
Palavras-chave: Processamento Digital de Sinais, Transformadas Wavelets Discretas, Sistemas Embarcados, Perturbações Elétricas.
Aluno(a): Caren Machado Menezes
Título: DETERMINAÇÃO DIRETA DE TANINOS E UMIDADE EM CASCA DE ACACIA MEARNSII (ACÁCIA-NEGRA) POR ESPECTROSCOPIA NO INFRAVERMELHO E CALIBRAÇÃO MULTIVARIADA
Defesa: 1º de março de 2013
Banca examinadora: Prof. Dr. Adilson Ben da Costa (Orientador), Prof. Dr. Luciano Marder (UNISC), Prof. Dr. Marco Flôres Ferrão (UFRGS).
RESUMO: No presente trabalho foram analisados e comparados os modelos de regressão multivariados por mínimos quadrados parciais (PLS), mínimos quadrados parciais por intervalo (iPLS) e mínimos quadrados parciais por sinergismo intervalos (siPLS), visando determinar a concentração de tanino e umidade em casca de Acacia mearnsii. Foram coletadas 7 amostras de casca de uma área de reflorestamento e 89 amostras no processo industrial da empresa Seta S.A. As NBR´s 11131 e 14929 foram utilizadas como métodos de referência para a determinação de taninos e umidade, respectivamente. Os espectros de NIR foram adquiridos utilizando um espectrofotômetro no infravermelho próximo com esfera de integração, com detector Indio-Galio-Arsênio na faixa de 10.000 a 4.000 cm-1, com resolução de 16 cm-1 e 32 varreduras, de 3 formas diferentes: a) em amostra in natura (sem processamento da amostra); b) após moagem e, c) após moídas e secas. Os modelos de regressão foram desenvolvidos empregando o software Solo 6.5.3 (Eigenvector Research, Inc.) e diferentes estratégias de pré-processamentos foram investigadas em função dos resultados da raiz quadrada dos erros médios de validação cruzada (RMSECV). As condições padronizadas adotadas na coleta e preservação das amostras da área de reflorestamento foram responsáveis pelos menores valores de RMSECV obtidos neste conjunto de amostras. O que pode ser percebido tanto para tanino nas amostras moídas secas (RMSECV entre 0,11 - 0,31%) e nas amostras in natura (RMSECV entre 0,79 - 1,56%), quanto para umidade nas amostras in natura (RMSECV entre 0,71 - 1,48%). Enquanto que para as amostras coletadas no processo industrial os resultados de RMSECV para tanino variaram entre 1,85 e 2,04% (nas amostras moídas e secas) e 2,31 e 2,63% (amostras in natura), já para umidade nas amostras in natura foram obtidos os melhores resultados entre 2,10 e 2,44%. Estes resultados comprovam que a espectroscopia no infravermelho próximo (NIR) associada a métodos multivariados de calibração pode ser aplicada para a determinação direta de tanino e de umidade na casca de Acacia mearnsii, e assim contribuindo para um melhor controle de processo da extração de taninos na indústria.
Palavras-chave: calibração multivariada, NIR, taninos, umidade, Acacia mearnsii.
Aluno(a): Cilene Loisa Assmann
Título: A GESTÃO DO CONHECIMENTO COMO APOIO À TOMADA DE DECISÃO NA ÁREA DE TI
Defesa: 20 de março de 2013
Banca examinadora: Prof. Dr. Rejane Frozza (Orientadora), Prof. Dr. Liane Mählmann Kipper (UNISC), Prof. Dr. Helder Gomes Costa (UFF).
RESUMO: Para estimular a retenção do conhecimento, as organizações precisam dar condições para que as pessoas possam torná-lo disponível em seus ambientes de trabalho. Na área de TI, que faz uso intenso da informação, torna-se um diferencial quando o conhecimento é documentado, armazenado e, principalmente, reutilizado. Neste sentido, o presente trabalho busca contribuir para a evolução do Setor de Informática de uma Instituição de Ensino Superior em relação à gestão do conhecimento. Para isso, o trabalho apresentou-se com dois focos: o conhecimento das pessoas e o que pode ser obtido da base de dados. Inicialmente, nesta pesquisa se optou pela busca de sugestões de todos os colaboradores da área e, a partir disso, pela implantação de ferramenta colaborativa Wiki. Atualmente, já é possível dizer que foi construída, de forma colaborativa, uma base de conhecimento estruturada. A facilidade no acesso e registro de informações trouxe como resultado imediato o aumento na retenção do conhecimento, o que foi percebido pelos envolvidos e demonstrado nos resultados da pesquisa. Este estudo também utilizou a mineração de dados, com a aplicação de regras de associação, para análise dos registros de atendimentos aos usuários, com o objetivo de obter conhecimento útil. A análise permitiu aos gestores perceber distorções nos dados e, a partir disso, definir ações para resolvê-las. Os objetivos de definir o fabricante de melhor qualidade, verificar demandas por turno, técnico e setores também foram alcançados. O resultado final é apresentado em conclusões obtidas de diversos cenários e combinações utilizando-se das regras de associação, que evidenciou fatos que a princípio não apresentavam relação entre si, revelando conhecimento novo e aplicável à tomada de decisão gerencial.
Palavras-chave: Gestão do Conhecimento, Ferramenta Colaborativa, Mineração de Dados, Regras de Associação.
Aluno(a): Ana Beatriz Baroni Schütz
Título: GESTÃO POR PROCESSO COMO SUPORTE AO PROCESSO DE DESENVOLVIMENTO DE PRODUTOS (PDP): UM ESTUDO DE CASO NO SETOR ALIMENTÍCIO
Defesa: 8 de maio de 2013
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Elpidio Oscar Benitez Nara (Coorientador), Prof. Dr. João Carlos Furtado (UNISC), Prof.ª Dra. Ana Júlia Dal Forno (UFSC).
RESUMO: A globalização, a redução do ciclo de vida dos produtos, o aumento de variedade de produtos ofertados em um mercado cada vez mais competitivo, exige que as empresas se diferenciem de alguma forma de seus concorrentes. O desenvolvimento de novos produtos é uma forma de manter-se competitiva no mercado. Neste contexto, o processo de desenvolvimento de produtos (PDP) precisa ser eficiente. No entanto, estudos demonstram que a taxa de fracasso no desenvolvimento de novos produtos está entre 25% a 45%. Frente a esse cenário, o presente estudo tem como finalidade tornar o PDP mais eficiente através da aplicação dos conceitos da gestão por processo. A metodologia aplicada foi a pesquisa-ação e o estudo foi desenvolvido em uma empresa alimentícia de médio porte fabricante de sorvete localizada na cidade de Viamão, Rio Grande do Sul, Brasil. O PDP da empresa foi diagnosticado através de entrevistas semi-estruturadas e observação participante. A análise crítica do PDP da empresa foi feita a partir de uma comparação entre as características do processo levantadas no diagnóstico e nas melhores práticas do processo apresentadas na revisão bibliográfica. Melhorias ao PDP foram propostas com foco nas atividades que agregam ou não agregam valor ao cliente sob a ótica das dimensões qualidade, custo e prazo. A partir daí, uma nova estruturação ao PDP foi proposta e avaliada através da análise do desempenho de uma linha de produto lançada após a estruturação. O desempenho da linha lançada foi verificado através dos seguintes indicadores: venda de produto (litros), venda realizada vs. projetada (%), satisfação dos clientes, adequação aos objetivos de lucro e tempo de colocação do produto no mercado (time to market). Resultados alcançados com o produto desenvolvido comprovaram avanços ao PDP. Os indicadores foram considerados positivos e a nova linha apresentou uma diferenciação em relação aos produtos desenvolvidos anteriormente à estruturação.
Palavras chave: Processo de Desenvolvimento de Produto (PDP) em alimentos, Gestão por Processo, criação de valor ao cliente.
Aluno(a): João Francisco dos Santos
Título: UTILIZAÇÃO DE MODELAGEM DE MISTURAS TERNÁRIAS NA AVALIAÇÃO DE FORMULAÇÕES DE COMPOSTO PARA PRODUÇÃO DE AGARICUS BISPORUS
Defesa: 24 de fevereiro de 2012
Banca examinadora: Prof. Dr. Adilson Ben da Costa (orientador), Prof. Dr. Luciano Marder (UNISC), Prof.ª Dra. Maria Angélica Oliveira (UFSM).
Resumo: No presente trabalho foi desenvolvido um estudo a fim de propor e avaliar diferentes formulações de composto para a produção de cogumelo Champignon (Agaricus bisporus) na região do Vale do Rio Taquari/RS, aplicando o planejamento experimental para misturas ternárias. Para tanto, foi desenvolvido um estudo preliminar que identificaram como sendo as principais alternativas de materiais disponíveis na região o capim cameron, a palha de arroz e a palha de milho (híbrido e transgênico). Para reduzir o número de testes, foi utilizado o planejamento experimental com modelagem de misturas ternárias, compreendendo o desenvolvimento de modelos lineares, quadráticos e cúbicos, para mistura de três componentes. Ao todo foram planejados 12 testes de produção, em triplicata. Os resultados obtidos indicaram uma produtividade significativamente inferior à apresentada na literatura em todos os testes de produção, sendo que o melhor desempenho ocorreu para a mistura binária de capim cameron e palha de arroz (eficiência biológica = 4,79%), cuja melhor relação para esta mistura ocorre na mistura de 55% de capim cameron e 45% de palha de arroz. A produtividade e a eficiência biológica apresentaram forte influencia da concentração de carbono e fósforo. Os resultados obtidos permitiram identificar também, que o composto produzido a partir da palha de milho transgênico apresentou uma eficiência biológica 24% superior a da palha de milho híbrido. Em misturas ternárias a melhor eficiência biológica (2,79%), foi obtida nos testes com palha de milho transgênico.
Palavras-chave: Agaricus bisporus, compostagem, planejamento experimental, misturas ternárias.
Aluno(a): Cássio Tagliari
Título: ESTUDO DA APLICAÇÃO DE MICRO-ONDAS NO PROCESSO DE SECAGEM INDUSTRIAL DE BORRACHA SINTÉTICA
Defesa: 28 de fevereiro de 2012
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (orientador), Prof. Dr. Adilson Ben da Costa (coorientador), Dr. Rolf Fredi Molz (UNISC), Prof. Dr. Sergio Mortari (UNIFRA).
Resumo: A borracha é um componente indispensável no mundo moderno. Inicialmente obtida apenas a partir do látex natural, já no início do século XX começou a ser produzida de forma sintética tendo, esses processos, sido desenvolvidos e otimizados junto com o avanço da ciência. No entanto, na etapa final desse processo produtivo, referente à secagem do produto, as técnicas e princípios em escala industrial têm se mantido sem mudanças e comuns a qualquer tipo de indústria. Esse trabalho se propôs a avaliar a utilização de sistema de aquecimento por micro-ondas no processo industrial de secagem de borracha sintética SBR em uma linha de produção contínua. Caracterizou-se em um estudo do tipo exploratório-experimental, de natureza quantitativa aplicada que iniciou em laboratório, com um forno de micro-ondas de uso doméstico, culminando com a instalação e operação experimental de um equipamento de micro-ondas, de escala industrial, para a secagem de borracha sintética em uma unidade do Rio Grande do Sul de uma indústria petroquímica multinacional. A partir da análise dos resultados, foi constatada a viabilidade da aplicação dessa tecnologia em escala industrial, ainda que essa aplicação dependa de alguma melhoria em relação à mecânica dos equipamentos. Ficou também evidenciado que, apesar da viabilidade apresentada, a secagem por micro-ondas não pode, ainda, ser utilizada como único método de secagem, dado sua limitação de redução de umidade, apontando a necessidade de uma configuração mista, a partir de um processo de secagem assistido por micro-ondas combinado com as técnicas atuais.
Palavras-chave: secagem industrial, micro-ondas, borracha sintética, SBR, elastômeros.
Aluno(a): Daniela Müeller
Título: METODOLOGIA PARA IDENTIFICAÇÃO DOS ÓLEOS VEGETAIS UTILIZADOS COMO MATÉRIA-PRIMA NA PRODUÇÃO DE BIODIESEL POR ESPECTROSCOPIA NO INFRAVERMELHO APLICANDO MÉTODOS MULTIVARIADOS DE ANÁLISE
Defesa: 28 de fevereiro de 2012
Banca examinadora: Prof. Dr. Luciano Marder (orientador), Prof. Dr. Marco Flôres Ferrão (coorientador), Prof. Dr. Adilson Ben da Costa (UNISC), Prof. Dr. Edson Irineu Müller (UFSM).
Resumo: O objetivo principal deste estudo foi desenvolver uma metodologia para identificação dos óleos vegetais utilizados como matéria-prima na produção de biodiesel por espectroscopia no infravermelho aplicando métodos multivariados de análise. O trabalho foi desenvolvido em três etapas principais: identificação de óleos vegetais (soja, canola, girassol, arroz, azeite de oliva e milho) e óleos degomados (canola, girassol, soja, algodão, palma e milho) e identificação e classificação de diferentes amostras de biodiesel (canola, girassol, soja, algodão, palma e milho). Também foram avaliadas três amostras de B100 obtidos predominantemente a partir de soja. Foram empregadas técnicas de espectroscopia no infravermelho médio e próximo associados à análise multivariada, como a análise por componentes principais (PCA), análise por agrupamentos hierárquicos (HCA), análise por componentes principais por intervalo (iPCA) e modelagem independente e flexível por analogia de classe (SIMCA). A PCA, HCA e SIMCA foram realizadas através do programa computacional Pirouette 3.11 e a iPCA através do software Matlab 7.11.0. Para os óleos degomados foram ainda empregados dados obtidos em análise por cromatografia gasosa utilizando um cromatográfo Schimadzu GC - 2010 com detector GCMS – QP 2010 Plus Gas Chromatograph Spectrometer. As amostras de óleos degomados e de biodiesel foram caracterizadas por análises através de métodos normatizados pela AOCS (Physical and Chemical Characteristics of Oils, Fats, and Waxe) e EN (European Norm). Os espectros de infravermelho médio foram adquiridos no espectrofotômetro de infravermelho com transformada de Fourier PERKIN ELMER modelo Spectrum 400 a partir de um acessório de reflectância atenuada universal (UATR-FTIR). Foi utilizado o intervalo entre 4000 a 650 cm-1, com resolução de 4 cm-1 e 32 varreduras. Os espectros de infravermelho próximo foram adquiridos no mesmo equipamento a partir de um acessório contendo esfera de integração e utilizando detector Indio-Galio-Arsênio (InGaAs). Foi utilizado o intervalo entre 10000 a 4000 cm-1, com resolução de 4 cm-1 e 32 varreduras. Os resultados obtidos indicam que é possível desenvolver uma metodologia para identificação de óleos vegetais e degomados utilizados como matéria-prima na produção de biodiesel por espectroscopia no infravermelho aplicando métodos multivariados de análise. Ressalta-se ainda que os resultados obtidos com as amostras de óleos degomados demonstraram que tanto no infravermelho médio como no infravermelho próximo, as amostras de palma e algodão se diferenciam das demais amostras, fato este justificado por possuírem maiores quantidades de ácidos graxos saturados em sua composição. Igualmente este aspecto foi observado nas amostras de biodiesel em ambos as faixas espectrais avaliadas. Ao comparar as amostras de óleos degomados e de biodiesel no infravermelho médio através da PCA, evidencia-se que a origem do óleo vegetal tem a mesma influência nas componentes principais nos correspondentes amostras de biodiesel. Ainda observou-se que a iPCA possibilitou localizar o melhor intervalo espectral para separação das amostras de biodiesel no infravermelho médio, e mediante a este resultado, a modelagem por SIMCA permitiu a classificação 100 % dos lotes de biodiesel de soja, no entanto, os resultados não foram satisfatórios para a modelagem realizada nos lotes de BS100 de soja.
Palavras-chave: análise multivariada, biodiesel, espectroscopia de infravermelho, óleos degomados e vegetais.
Aluno(a): Henrique Worm
Título: ESTUDO DA AUTOMAÇÃO DE UMA PLANTA PILOTO PARA A PRODUÇÃO DE BIODIESEL
Defesa: 29 de fevereiro de 2012
Banca examinadora: Prof. Dr. Adilson Ben da Costa (orientador), Prof. Dr. Rolf Fredi Molz (coorientador), Prof.ª Dra. Rosana de Cássia de Souza Schneider (UNISC), Prof. Dr. Henry Reyes Pineda (Universidad del Quindio - Colômbia).
Resumo: No presente trabalho foi desenvolvido um sistema para a automação de uma planta de manufatura de biocombustíveis com capacidade de processamento de até 100 de litros de óleo por batelada, utilizando rota metílica. Para tanto, foram analisadas as diferentes possibilidades de desenvolvimento de uma solução eficiente, segura e de baixo custo, definindo-se um projeto elétrico para a automação da planta. A planta foi automatizada de forma a permitir o controle de todos os acionamentos elétricos de forma manual ou automática, além da configuração das variáveis de tempo e temperatura do processo, diretamente na interface de operação do quadro de comando, de forma segura e em tempo real. Foram realizadas três bateladas de teste utilizando 100 litros de óleo, 20 litros de metanol e 1,6 litros de metilato de sódio. A eficiência de conversão do óleo vegetal em biodiesel foi monitorada por HPLC (High-Performance Liquid Chromatography) e por ATR-FTIR (Attenuated Total Reflection Fourier Transform Infrared). Os resultados confirmaram a conclusão da reação de transesterificação do óleo vegetal, cinco minutos após seu início. A partir destes resultados, foi possível definir as condições ideais de tempo e temperatura dos processos de transesterificação, evaporação, decantação, lavagem e secagem do biodiesel, analisando comparativamente os custos de construção, automação e operação da planta. Tendo em vista que o custo da automação da planta representou menos de 12% do valor total investido, não comprometendo os parâmetros de qualidade, produtividade e segurança da mesma, o sistema foi considerado adequado para as determinações propostas, podendo ser instalado em propriedades rurais ou cooperativas para produção própria de biodiesel.
Palavras-chave: biodiesel, transesterificação, automação, CLP.
Aluno(a): Cláudio Roberto do Rosário
Título: METODOLOGIA MACTAC - AQUISIÇÃO DE CONHECIMENTO TÁCITO COLETIVO PARA AUXILIAR NO DIAGNÓSTICO DE CAUSA RAIZ DE DEFEITO EM PROCESSOS INDUSTRIAIS UTILIZANDO SISTEMA ESPECIALISTA
Defesa: 29 de março de 2012
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (orientadora), Prof.ª Dra. Rejane Frozza (coorientadora), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC), Prof. Dr. João Helvio Righi de Oliveira (UFSM).
Resumo: O trabalho apresenta o desenvolvimento de uma metodologia denominada MACTAC – Metodologia para Aquisição de Conhecimento Tácito Coletivo, elaborada para promover a elicitação do conhecimento tácito a fim de torná-lo explícito e possível de ser utilizada em processos industriais de manufatura. A metodologia foi aplicada sobre os envolvidos com o processo de montagem de embalagem metálica, os Mecânicos de uma Empresa Metalúrgica localizada no Sul do Brasil. Para o processo de aquisição de conhecimento e mapeamento dos atributos e valores para alimentar a base de conhecimento de um Sistema Especialista foram utilizadas técnicas de melhoria de processos, como Brainstorming, Gráfico de Pareto e Diagrama de Ishikawa associadas às técnicas de elicitação de conhecimento, como Entrevista não estruturada, Classificação de fichas, Técnica de Observação, Limitação de Informações e Análise de Protocolo. Para estruturar a metodologia, foi utilizada a técnica da Sistemografia, que preconiza o pensamento sistêmico como forma de observação de fenômenos complexos e modelagem de objetos nas organizações. Com base nas regras de produções desenvolvidas através da metodologia, foram alimentadas duas bases de conhecimento com as mesmas regras de produção, uma em um Sistema Especialista não probabilístico (aplicativo EXPERT SINTA), e a outra em um Sistema Especialista probabilístico (aplicativo NÉTICA) com o objetivo de realizar uma comparação sobre os resultados encontrados nos Sistemas Especialistas. Ambos os Sistemas Especialistas desenvolvidos realizam análise sistemática a partir das respostas dadas pelos envolvidos no processo de montagem da embalagem ao passo que o defeito é identificado, a fim de apoiar o usuário no processo de diagnóstico da causa raiz do defeito. Os resultados atingidos demonstram evolução no indicador de retrabalho, comprovando a melhoria no processo, bem como na atuação dos envolvidos no processo produtivo.
Palavras-Chave: Gestão do Conhecimento, Sistema Especialista, Aplicativo Nética, Aplicativo Expert Sinta.
Aluno(a): Fabrício Izaguirre Mendes
Título: GESTÃO POR PROCESSOS APLICADA A GESTÃO DE PROJETOS: UMA METODOLOGIA PARA GERENCIAMENTO DE PROJETOS NA INDÚSTRIA
Defesa: 4 de maio de 2012
Banca examinadora: Prof.ª Dra. Liane Mählmann Kipper (orientadora), Prof. Dr. Elpidio Oscar Benitez Nara (coorientador), Prof. Dr. João Carlos Furtado (UNISC), Prof. Dr. Júlio Cézar Mairesse Siluk (UFSM).
Resumo: A presente pesquisa foi desenvolvida com base nos atuais conceitos e técnicas que norteiam a gestão de processos e o gerenciamento de projetos, no intuito de atender às exigências dos mercados por processos ágeis e enxutos. Seguindo-se a linha de que as organizações implementam suas estratégias através de projetos, a proposta desta pesquisa é a utilização de uma metodologia de gestão por processos como base para o desenvolvimento de um novo processo de gerenciamento de projetos otimizado e alinhado às estratégias organizacionais. Para tal, foram estudadas e implementadas através de uma pesquisa-ação, as metodologias GEPRO para gestão de processos, os conceitos e técnicas do PMBOK, além da metodologia Stage-Gate e do método Scoring para gestão de portfólio e priorização de projetos respectivamente. Além destas, também foi apresentada uma proposta para implementação do novo processo através de um software de gerenciamento de processos de negócio. Como resultado, destaca-se que na fase de racionalização do processo houve uma redução de 48% no número de etapas frente ao processo anterior, passando de vinte e três para apenas doze etapas. Além do processo em si, também foram racionalizados documentos, passando de dois para um procedimento e de dez para apenas um formulário do projeto. Desta forma, a proposta desenvolvida entregou à organização pesquisada um processo enxuto e alinhado aos preceitos da gestão por processos e das boas práticas em gerenciamento de projetos, além de contribuir com a comunidade acadêmica e científica apresentando aplicações práticas e atualizadas destas metodologias de gestão, estreitando ainda mais os laços entre a academia e a indústria.
Palavras-chave: Gestão por Processos, Gerenciamento de Projetos, Gestão de Portfólio de Projetos, Priorização de Projetos.
Aluno(a): Fernando Simon
Título: RISKSTORE - FERRAMENTA DE GERENCIAMENTO DE RISCOS EM PROJETOS DE SOFTWARE
Defesa: 25 de maio de 2012
Banca examinadora: Prof. Dr. João Carlos Furtado (orientador), Prof.ª Dra. Rejane Frozza (coorientadora), Prof. Dr. Rolf Fredi Molz (UNISC), Prof.ª Dra. Lisandra Manzoni Fontoura (UFSM).
Resumo: Este trabalho aborda as necessidades e conceitos sobre um tema cada vez mais presente no meio empresarial que é o gerenciamento de riscos. Com o estudo realizado, foi possível verificar que a adoção de metodologias e ferramentas de gerenciamento de riscos traz grandes benefícios para os projetos. Mas ainda estão faltando ferramentas para auxiliar os envolvidos nos projetos no gerenciamento dos riscos de forma mais assertiva. Foram estudadas as metodologias de gerência de projetos mais comuns utilizadas e como cada uma delas trata a questão do gerenciamento de riscos em projetos, além de algumas das principais ferramentas para o gerenciamento de riscos. O objetivo deste trabalho foi propor e desenvolver uma nova ferramenta de gerenciamento de riscos, RiskStore, visando atender as deficiências das demais ferramentas e adicionar o conceito de criação de uma base de conhecimento para ser utilizada pela ferramenta como subsídio para realizar análises e simulações de riscos. Os resultados do uso da ferramenta mostram que é possível antever ocorrências de riscos, em relação a ameaças que circundam os projetos de software, com auxílio de uma base de conhecimento sobre ocorrências de riscos, buscando melhorias no processo de tomada de decisão para o gerenciamento de riscos.
Palavras-Chave: Gerenciamento de riscos, projetos de software, ferramentas para gerenciamento de riscos, base de conhecimento.
Aluno(a): Emanuel Sari
Título: DESENVOLVIMENTO DE PROJETO DE UMA MÁQUINA ARMADORA DE PINOS DE BOLICHE ASSISTIDOS POR CABOS COM MOVIMENTOS INDEPENDENTES
Defesa: 4 de outubro de 2012
Banca examinadora: Prof. Dr. Rolf Fredi Molz (orientador), Prof. Dr. Adilson Ben da Costa (coorientador), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC) e Prof. Dr. Eugênio de Oliveira Simonetto (UFSM).
Resumo: Neste ambiente atual de globalização, grande competitividade, rápidas mudanças tecnológicas e diminuição do ciclo de vida dos produtos, têm forçado as empresas tornarem seus processos de negócios mais ágeis, produtivos, para superarem os desafios impostos pelo mercado e conseguir sobreviver. O Processo de Desenvolvimento de Produto – PDP tem se tornado foco de competição entre as organizações, onde atualmente já não basta mais só ter formalizado este processo na empresa, mas que seja um processo eficiente e eficaz. Alguns métodos como Design for Assembly – DFA, Design for Manufacturability – DFM, entre outros Design for X – DFX e ferramentas como Computer Aided Design – CAD e Computer Aided Manufacturing – CAM, podem ajudar a tornar o PDP mais eficiente. Na bibliografia são encontradas diversas metodologias sobre o processo de desenvolvimento de produtos, porém elas são muitos semelhantes, compostas por uma sequência de atividades que devem ser seguidas para se chegar ao objetivo final, um novo produto ou serviço. Não existe uma metodologia de PDP específica para cada tipo de empresa, tem-se que modelar conforme os recursos e capacidades de cada empresa.
Palavras-chave: Processo de desenvolvimento de produtos, Máquina armadora de pinos de boliche.
Aluno(a): Magali Carolina Ellwanger
Título: USO DA GESTÃO DE PROCESSOS PARA O REDESENHO DO PLANEJAMENTO ESTRATÉGICO EM UMA INSTITUIÇÃO DE ENSINO SUPERIOR
Defesa: 20 de janeiro de 2011
Banca examinadora: Profª. Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Elpidio Oscar Benitez Nara (Coorientador), Prof. Dr. Rolando Soliz Estrada (UFSM) e Prof. Dr. João Carlos Furtado (UNISC).
Resumo: No século XXI, a gestão das organizações não pode ser entendida como um sistema fechado, mas sim compreendida e operacionalizada como um sistema aberto, onde o planejamento, as estratégias e os processos organizacionais articulados contribuem para a entrega de produtos e serviços aderentes as necessidades do mercado e/ou da comunidade na qual está inserida. O tema da pesquisa é: Discutir a integração entre os modelos de planejamento estratégico e a gestão por processos na busca de alinhamento organizacional para a sustentação da organização no longo prazo. Com essa premissa torna-se relevante compreender as constatações dos teóricos acerca desses conteúdos. O problema de pesquisa configurou-se da seguinte forma: Como o uso da gestão por processos como abordagem sistêmica pode auxiliar na redefinição do planejamento estratégico da organização pesquisada? Entendendo que a gestão das instituições de ensino é semelhante as demais organizações, o objetivo geral da pesquisa foi: Propor o redesenho do processo de planejamento estratégico como base na gestão por processos em uma instituição de ensino superior, mais especificamente a Universidade de Santa Cruz do Sul - UNISC. Desenvolveu-se uma investigação de cunho qualitativo, com a metodologia de estudo de caso. Utilizou-se de várias fontes de evidência, coletadas a partir de entrevistas – gestores da UNISC; de documentos institucionais – fluxogramas das etapas do processo de planejamento, o Projeto Político-Pedagógico Institucional – PPI, o Plano de Desenvolvimento Institucional – PDI, bem como das observações da pesquisadora. As entrevistas foram trabalhadas através da análise de conteúdo e os documentos foram trabalhados a partir das etapas do processo de planejamento. As considerações finais apontam uma série de sugestões de melhoria para o processo de planejamento da UNISC, evidenciando que o redesenho do planejamento estratégico através da gestão de processos pode contribuir para o posicionamento que a instituição deve adotar frente aos desafios apresentados no atual cenário, permitindo a evolução da visão fragmentada para uma visão sistêmica da instituição.
Palavras-chave: Estratégia, Planejamento Estratégico, Gestão de Processos
Aluno(a): Márcia Werlang
Título: QUANTIFICAÇÃO DE BIODIESEL EM BLENDAS BIODIESEL/DIESEL: COMPARAÇÃO DE MODELOS IPLS E LS-SVM COM APLICAÇÃO DO MÉTODO DA TRANSFORMADA DISCRETA WAVALET
Defesa: 21 de fevereiro de 2011
Banca examinadora: Prof. Dr. Marco Flôres Ferrão (Orientador), Prof. Dr. Ruben Edgardo Panta Pazos (Coorientador), Prof. Dr. Jarbas Rohwedder (UNCAMP) e Prof. Dr. Liane Mahlmann Kipper (UNISC).
Resumo: Desde o início do ano de 2008 vem sendo obrigatória a comercialização do biodiesel adicionado no diesel. O percentual comercializado vem crescendo com o passar o tempo, sendo atualmente 5% e tende a aumentar. A ANP1 – responsável pela regulação e fiscalização do biodiesel, já concede autorização para utilização de blendas biodiesel/diesel com percentual de biodiesel acima do que estabelece a legislação vigente. Dessa forma, se faz necessário estabelecer metodologias capazes de atestar se o percentual comercializado está dentro da legislação, a fim de proteger o consumidor. Para isso esse trabalho utilizou espectroscopia no infravermelho médio associado a duas ferramentas: regressão por mínimos quadrados parciais por intervalo (iPLS) e máquina vetor de suporte com mínimos quadrados (LS-SVM). Além disso, utilizou-se o método da transformada discreta wavelet (TDW) para reduzir o número de variáveis e assim os custos computacionais. Esse trabalho estudou amostras de blendas biodiesel/diesel, com concentrações de biodiesel na faixa de 8% (v/v) – 30% (v/v). Os modelos estudados foram construídos utilizando a faixa espectral que contém o estiramento C-O dos ésteres presentes no biodiesel, que foi selecionada pelo algoritmo iPLS empregado. Os resultados obtidos mostraram uma grande capacidade do método TDW em reter informação em novas variáveis, criadas a partir da decomposição das variáveis originais, conferindo economia e rapidez na construção de modelos multivariados. Os modelos construídos revelaram que as ferramentas iPLS e LS-SVM são equivalentes para a quantificação de biodiesel em blendas biodiesel/diesel para concentrações estuda as, até mesmo quando modelam simultaneamente espectros oriundos de espectrofotômetros diferentes, no caso um Nicolet e um Shimadzu, apresentando erros de previsão, na faixa de 0,2% (v/v) – 0,4% (v/v), inferior ao limite estabelecido pela Norma NBR 15568 para essa faixa de concentração, 1,0% (v/v).
Palavras-chave: biodiesel, blendas biodiesel/diesel, transformada discreta wavelet, espectroscopia no infravermelho médio, regressão por mínimos quadrados parciais por intervalo, máquina de vetor de suporte com mínimos quadrados.
Aluno(a): Janice Zulma Francesquett
Título: QUANTIFICAÇÃO DO PODER CALORÍFICO DA GASOLINA UTILIZANDO INFRAVERMELHO PRÓXIMO E ANÁLISE MULTIVARIADA
Defesa: 25 de março de 2011
Banca examinadora: Prof. Dr. Adilson Ben da Costa (Orientador), Prof. Dr. Marco Flôres Ferrão (coorientador), Prof. Dr. Luciano Marder (UNISC), Prof. Dr. Ivanildo Luiz de Mattos (Universidad de Santiago de Chile) e Prof. Dr. Geraldo Lopes Crossetti (UNIPAMPA).
Resumo: No presente trabalho foram analisados e comparados modelos de regressão multivariados por mínimos quadrados parciais por intervalo (iPLS), por mínimos quadrados parciais por exclusão de intervalos (biPLS) e por sinergismo (siPLS), visando a quantificação do poder calorífico de gasolinas disponíveis em postos de abastecimento do estado do Rio Grande do Sul. Foram utilizadas 157 amostras de gasolina (comum ou aditivada) de diferentes regiões do estado para a obtenção dos respectivos valores de poder calorífico utilizando bomba calorimétrica conforme Norma ASTM D 4.809. Para a obtenção dos espectros no infravermelho próximo na faixa de 10.000 a 4.000 cm-1 foi empregado um espectrômetro com esfera de integração com resolução de 4 cm-1 e 32 varreduras. Os dados espectrais das amostras foram analisados por meio de ferramentas de análise multivariada como análise por agrupamento hierárquico (HCA) e análise por componentes principais (PCA) utilizando tratamentos como correção de espalhamento multiplicativo (MSC) e 1ª derivada com filtro de Savitzky-Golay (SG) usando um polinômio de segunda ordem e 13 pontos, sem nenhum pré-processamento e utilizando dois pré-processamentos diferentes: centrado na média (MEAN) e auto escalado (AUTO). A partir dos espectros derivados, foram utilizadas 2/3 das amostras para a calibração para obtenção dos valores da raiz quadrada dos erros médios de validação cruzada (RMSECV) e o restante das amostras foi empregado no conjunto de previsão, obtendo então os valores da raiz quadrada dos erros médios de previsão (RMSEP). Para o iPLS e biPLS foram utilizados os pré-processamentos AUTO e MEAN, com ou sem o emprego do MSC, sendo que, a partir disto, foram construídos modelos siPLS com o pré-processamento que obteve os resultados mais satisfatórios no iPLS e biPLS (MSCAUTO). A análise das absorções espectrais dos grupos de amostras observadas pelo HCA e PCA mostrou diferenças em suas estruturas químicas, diferenciando principalmente na quantidade de metilas (CH3) presentes na cadeia dos hidrocarbonetos, apresentando maiores diferenças relacionados entre as ramificações da cadeia. A utilização da primeira derivada nos espectros, juntamente com a seleção da região espectral, também foi de suma importância na elaboração dos modelos de previsão, uma vez que, a média dos resultados obtidos pela análise preditiva apresentou margem de erro de 0,59% para a calibração e 0,96% para a previsão. O préprocessamento auto escalado com correção multiplicativa de sinal se mostrou eficiente nos modelos iPLS, biPLS e siPLS, sendo que apresentou maiores coeficientes de correlação nos melhores modelos, acima de 0,8 para a calibração e acima de 0,6 para a previsão. A partir disto, salientamos a eficiência do método proposto pelos algoritmos de iPLS, biPLS e siPLS, que selecionaram principalmente as regiões espectrais na faixa de 5.561-6.650 cm-1 onde são observadas bandas de absorção atribuídas aos estiramentos C-H, abaixo de 6000 cm-1 que contém ligações C-H aromático, e acima de 6.500 cm-1 que possui bandas características de estiramentos O-H do álcool presente na gasolina. A metodologia proposta utilizando infravermelho próximo e seleção de regiões espectrais a partir de algoritmos determinísticos como iPLS, biPLS e siPLS se mostrou eficiente, compreendendo uma alternativa limpa, rápida, prática e segura para a quantificação do poder calorífico de gasolinas.
Palavras-chave: poder calorífico, gasolina, espectroscopia no infravermelho próximo,
análise multivariada.
Aluno(a): Ederson Luis Posselt
Título: INFUZZY - FERRAMENTAS PARA DESENVOLVIMENTO DE APLICAÇÕES DE SISTEMAS DIFUSOS
Defesa: 15 de abril de 2011
Banca examinadora: Profª. Dra. Rejane Frozza (Orientadora), Prof. Dr. Rolf Fredi Molz (Coorientador), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC) e Prof. Dr. Paulo Martins Engel (UFRGS).
Resumo: A lógica difusa é uma excelente técnica para a solução de problemas que envolvam o uso de dados imprecisos, porém a sua implementação e o seu entendimento não são fatos triviais. A carência de uma ferramenta de aplicação de sistemas difusos no mercado que contemple os seguintes requisitos mínimos: acesso gratuito, interação gráfica, fácil aprendizado, simulação e um ambiente para integração com outros sistemas motivou esse projeto. As ferramentas mais completas de sistemas difusos, existentes atualmente no mercado, são de domínio de empresas privadas e estão disponíveis apenas em versões de demonstração ou compra. Existem algumas implementações gratuitas e de código aberto, porém essas ferramentas são na sua grande maioria incompletas, sem ambientes gráficos, de difícil aprendizado, com pouca ou nenhuma documentação. Após uma revisão bibliográfica sobre a lógica difusa, ergonomia e usabilidade de software, foi desenvolvida a ferramenta InFuzzy, uma ferramenta gráfica para modelagem de aplicações de sistemas difusos, dotada de recursos de simulação e integração com outros softwares através do protocolo UDP/IP. Para avaliação e validação foram modeladas aplicações na ferramenta InFuzzy e essas comparadas com os resultados obtidos no Matlab®1 e artigos.
Palavras-chave: Lógica difusa, ferramenta de modelagem de sistemas difusos, ferramenta InFuzzy.
Aluno(a): Eduardo Urnau
Título:SISTEMA DE RACIOCÍNEO BASEADO EM CASOS COMO AUXÍLIO AO PROCESSO DE TOMADA DE DECISÃO ESTRATÉGICA.
Defesa: 23 de maio de 2011
Banca examinadora: Profª. Dra. Liane Mahlmann Kipper (Orientadora), Profª. Dra. Rejane Frozza (Coorientadora), Prof. Dr. João Carlos Furtado (UNISC) e Prof. Dr. João Artur de Souza (UFSC).
Resumo: Esta pesquisa objetivou propor um modelo de gestão do conhecimento como auxílio na tomada de decisão estratégica, percorrendo os estudos sobre temas que abordam o conhecimento, as organizações, seu capital intelectual e as estratégias utilizadas nas empresas. A Inteligência Artificial através da técnica de Raciocínio Baseado em Casos (RBC), que propõe a solução de problemas através da similaridade de casos passados, atende o desafio da Empresa de tornar o conhecimento parte da sua cultura. O estudo foi aplicado no setor comercial de uma Empresa do ramo de Varejista, localizada em Saudades/SC, no qual os gestores utilizam o planejamento estratégico para acompanhar e focar as atenções nos resultados do setor. Esta ação proporcionou à empresa análises detalhadas dos resultados, auxiliando os gestores na tomada das decisões estratégicas. A pesquisa foi definida como exploratória e descritiva com a realização de um estudo de caso, pois envolveu a análise do estado atual da empresa em seu setor comercial e a proposição de um novo modelo de tomada de decisão. Foram utilizadas técnicas de brainstorming e entrevista semi-estruturada, buscando representar a situação atual da empresa para posteriormente aplicar a técnica de RBC. Dos principais resultados encontrados destaca-se a possibilidade de realizar acurácias nas informações em tempo real mantendo o registro das decisões tomadas e o conhecimento atribuído para o devido fato, assim como a possibilidade da utilização de tecnologias computacionais junto aos processos decisórios. O desenvolvimento da técnica de RBC envolveu o registro de casos, sua análise, reutilização em casos similares, a possibilidade de adaptação dos casos, seguida de revisão dos atributos que atendam a solução procurada, e o armazenamento dos casos, completando com a retenção do conhecimento. Desta forma, tem-se uma base de conhecimento atualizada e renovada.
Palavras-chave: Gestão do conhecimento, planejamento estratégico, capital intelectual, técnica de raciocínio baseado em casos.
Aluno(a): Simone Pradella
Título: NOVO OLHAR: UMA METODOLOGIA DE GESTÃO E PROCESSOS REDESENHADA PARA A BUSCA DE MAIOR EFICIÊNCIA E EFICÁCIA ORGANIZACIONAL.
Defesa: 27 de maio de 2011
Banca examinadora: Profª. Dra. Liane Mahlmann Kipper (Orientadora), Prof. Dr. João Carlos Furtado (Coorientador), Profª. Dra. Rejane Frozza (UNISC) e Prof. Dr. Fernando Antônio Forcellini (UFSC).
Resumo: Para atender às necessidades de mudança oriundas do contexto organizacional dos desejos dos clientes apresentados em uma cadeia de valor dinâmica, as organizações buscam a melhoria contínua dos seus processos. Para tanto, o presente trabalho teve como foco a busca de metodologias de análise e de redesenho de processos aderentes à gestão de processos, propondo, a partir do estudo, o aprimoramento da metodologia Novo Olhar, aperfeiçoando principalmente o detalhamento do passo a passo para uma implantação com maior qualidade, padronização e agilidade. Nessa proposta de otimização da metodologia destaca-se a etapa de simulação de processos aplicada em uma organização geradora de conhecimento, que atua no ramo de serviços educacionais. Essa aplicação visou à melhoria do desempenho dos processos de serviço, que, embora mais complexos, utilizam metodologias que não apresentam todas as etapas necessárias para expor resultados eficientes e eficazes de desempenho, obtidos a partir do redesenho antes da etapa de implantação. A metodologia de pesquisa empregada foi a pesquisa-ação, obtendo como principais resultados a validação Institucional da metodologia Novo Olhar – Fase de Análise e Redesenho, onde destaca-se a inclusão da etapa de simulação de processos, com o software Arena, que apresentou dados satisfatórios na simulação realizada no processo de Compra e Orçamento de Material da IES. A partir da análise dos resultados da simulação, identificou-se a relevância dessa etapa para o desenvolvimento de um redesenho de processos de serviço com maior eficiência e eficácia.
Palavras-chave: Gestão de Processos, Melhoria Contínua de Processos, Simulação de Processos.
Aluno(a): Roberto Bartholomay
Título: LÓGICA FUZZY PARA CONTROLE DE MOTORES
Defesa: 16 de junho de 2011
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Eugênio de Oliveira Simonetto (UFSM).
Resumo: Este trabalho apresenta o estudo sobre a utilização de lógica fuzzy para o controle do tempo de injeção de combustível em motores de combustão interna à gasolina ou álcool através da válvula injetora de combustível. No inicio do século passado o homem inventou os primeiros automóveis movidos à gasolina que foram progressivamente sofrendo diversas melhorias tecnológicas. Os automóveis utilizavam motores à combustão interna, ou seja, a queima do combustível dentro da câmara de combustão gera energia cinética transformando posteriormente em movimento rotacional transmitido às rodas. Para ocorrer esta queima é necessário misturar certa quantidade de oxigênio, elemento presente no ar, e outra certa quantidade de combustível, ou seja, a mistura ar-combustível. Para proporcionar a mistura arcombustível inicialmente foi desenvolvido o carburador. Este conjunto mecânico era responsável pela mistura ar-combustível, porém durante a evolução do automóvel observou-se que este conjunto mecânico não era tão eficiente, surgindo assim um sistema eletrônico para realizar a mistura ar-combustível, a injeção eletrônica. Depois da evolução do sistema de injeção eletrônica pelas grandes empresas de tecnologia multinacionais, pequenas empresas começaram a desenvolver tal sistema voltado para um público interessado em transformar veículos antigos carburados em veículos dotados de um sistema de injeção eletrônica com uma grande possibilidade de melhorar o desempenho do motor e a economia de combustível. Para a instalação deste sistema é necessário que a injeção eletrônica seja programável, pois para cada motor o comportamento do sistema deve ser ligeiramente diferente. Então o especialista que realizará a instalação de todo sistema deverá possuir grande conhecimento para ajustar o sistema de injeção eletrônica no motor em questão. Esta etapa de instalação é um dos procedimentos mais complicado, pois o motor deve funcionar com a melhor relação arcombustível possível. Assim sendo, a principal proposta do presente trabalho é estudar e testar as vantagens para ajuste das principais variáveis envolvidas no processo de mistura do arcombustível dentro da Câmara de combustão. Para realização este trabalho foi necessário o estudo da lógica fuzzy. Implementando um controlador fuzzy foi possível reduzir drasticamente a quantidade das variáveis envolvidas no processo de controle e ajuste da relação arcombustível.
Palavras-chave: Injeção eletrônica, lógica fuzzy, motor à combustão interna, bico injetor, tempo de bico, sensor TPS, sensor de rotação, sensor MAP, sensor sonda lambda.
Aluno(a): Mariela de Souza Viera
Título: QUALIFICAÇÃO E QUANTIFICAÇÃO DE ADULTERANTES EM MISTURAS DE BIODIESEL/DIESEL EMPREGANDO ESPECTROSCOPIA NO INFRAVERMELHO POR REFLEXÃO TOTAL ATENUADA E CALIBRAÇÃO MULTIVARIADA.
Defesa: 17 de junho de 2011
Banca examinadora: Profª. Dra. Liane Mahlmann Kipper (Orientadora), Prof. Dr. Marco Flores Ferrão (Coorientador), Prof. Dr. Luciano Marder (UNISC) e Prof.ª Dra. Annelise Gerbase (UFRGS).
Resumo: Durante a última década, as preocupações ambientais têm impulsionado o busca por combustíveis renováveis. Neste cenário o biodiesel surge como uma fonte promissora para substituir parcialmente o diesel mineral, por ser advindo de fonte renovável e possuir propriedades físico-químicas semelhantes ao diesel.
O biodiesel que foi introduzido na matriz energética brasileira no ano de 2008 em misturas com o diesel denominadas Bx. A produção de biodiesel conta com uma série de isenções fiscais, com fins de incentivar a produção, fato esse que pode levar a alguns tipos de adulteração nas misturas diesel/biodiesel, considerando os antecedentes históricos e atuais de adulteração de combustíveis no Brasil. Porém há carência de metodologias específicas para o monitoramento da presença de adulterantes nestas novas misturas pelos órgãos de fiscalização - ANP.
Em virtude desses fatos, o presente trabalho apresenta um estudo empregando a espectroscopia no infravermelho com reflexão total atenuada (ATR), pois esta técnica é adequada para a análise de combustíveis, sendo rápida, não destrutiva e não gera resíduos nocivos ao ambiente. Neste trabalho, foram elaboradas 81 amostras binárias e 60 amostras ternárias (blendas) a partir de adições de percentuais crescentes de biodiesel, óleo de girassol bruto, óleo de soja degomado ou óleo residual de fritura em diesel, sendo empregadas uma amostra de interior e outra metropolitano.
As concentrações utilizadas compreendem a faixa de concentração de 0,5 a 30% (para o biodiesel, óleo de girassol bruto, óleo de soja degomado e óleo residual de fritura). Os espectros destas amostras foram adquiridos em dois espectrofotômetros distintos, Nicolet Magna 550, Shimadzu IR Prestige - 21. Para selecionar e avaliar as faixas espectrais foi utilizado o algoritmo iPCA (análise por componentes principais por intervalos). De acordo com os resultados foi possível visualizar a separação dos grupos formados pelos óleos vegetais (adulterantes) das blendas contendo biodiesel, usando uma faixa específica do espectro selecionada por meio da análise de iPCA. Observou-se também que utilizando outras faixas do espectro podem-se separar as amostras contendo diesel interior e metropolitano, bem como a diferenciação dos dois equipamentos utilizados nas análises. Na seqüência os mesmos espectros FTIR- ATR foram associada à análise de regressão por mínimos quadrados parciais (PLS, iPLS, siPLS e biPLS), sendo sugerida como uma metodologia analítica limpa, rápida e não destrutiva capaz de quantificar a presença de adulterantes, como óleo de soja degomado, óleo de girassol e óleo residual de frituras, em misturas biodiesel/diesel. Este estudo amplia as potencialidades da espectroscopia no infravermelho, a qual pode ser amplamente empregada no monitoramento de outros adulterantes frequentemente encontrados em misturas comerciais de biodiesel/diesel.
Palavras-chave:
Aluno(a): Eduardo Dullius
Título: DESENVOLVIMENTO DE UM VAPORIZADOR ELETROTÉRMICO PARA DETERMINAÇÃO DIRETA DE CLORO EM COQUE DE PETRÓLEO POR ICP-MS
Defesa: 05 de agosto de 2011
Banca examinadora: Prof. Dr. Rolf Fredi Molz (orientador), Prof. Dr. Adilson Ben da Costa (coorientador), Prof. Dr. Leonel Pablo Tedesco (UNISC) e Prof. Dr. Valderi Luiz Dressler (UFSM)
Resumo: No presente trabalho foi desenvolvido um sistema de vaporização de amostras de coque de petróleo para determinação de cloro através de espectrometria de massa com plasma indutivamente acoplado (ICP-MS). Para tanto, foi desenvolvida uma câmara para a vaporização eletrotérmica, uma placa de circuito impresso para controle de temperatura e um software com interface gráfica de usuário para operação do sistema. A vaporização das amostras ocorre através do aquecimento de uma lâmpada incandescente, cujo formato do bulbo permite a deposição das amostras diretamente sobre o mesmo. Através do software desenvolvido em ambiente LabVIEW®, o usuário determina a temperatura da lâmpada e o tempo desejado, podendo dividir a operação em diversas etapas com rampas de aquecimento distintas. O software também permite o acionamento de válvulas solenóides para determinar o controle do fluxo de gás argônio e vapores gerados durante o processo. Para o acionamento da lâmpada e das válvulas foi desenvolvida uma placa de circuito impresso responsável pelo controle da potência, que se comunica com o computador pela porta USB através de uma placa comercial de interface. Durante a calibração do sistema, foram realizados diversos ensaios com amostras de coque de petróleo para ajuste das temperaturas de pirólise e vaporização para cloro, definidas em 350 °C e 900 °C respectivamente, ajuste da vazão de gás carreador, definida em 1,20 L min-1 e otimização da massa de amostra, limitada em até 5 mg por ensaio. Também foi utilizada uma amostra de referência certificada de carvão, cuja concentração de cloro é 32 μg g-1 (SARM 19). O limite de detecção para cloro calculado com a utilização do sistema foi de 3,5μg g-1. Desta forma, o sistema foi considerado adequado para as determinações propostas, além de reduzir drasticamente o tempo de análise para aproximadamente 2 min por ensaio, minimizando riscos de contaminação, perdas de analito e geração de resíduos.
Palavras-chave: Coque de petróleo, cloro, ICP-MS, vaporização eletrotérmica.
Aluno(a): Cristian Caurio
Título: MÉTODO DE APOIO PARA A MELHORIA DA GESTÃO ORGANIZACIONAL ATRAVÉS DE INDICADORES DE DESEMPENHO E GESTÃO DE PROCESSOS
Defesa: 17 de agosto de 2011
Banca examinadora: Prof. Dr. Elpidio Oscar Benitez Nara (orientador), Prof.ª Dra. Liane Mählmann Kipper (coorientadora), Prof.ª Dra. Rejane Frozza (UNISC) e Prof. Dr. Julio Cezar Mairesse Siluk (UFSM).
Resumo: Diante do cenário atual com elevada concorrência e consumidores mais exigentes é fundamental que as empresas, independente do porte, busquem técnicas e ferramentas que possibilitem um melhor gerenciamento de suas atividades. Quando fala-se em gestão, principalmente em um ambiente turbulento e complexo, um dos problemas principais que vem a mente é como determinar se a empresa esta indo bem, e também quais os aspectos poderiam ser melhorados. Nesse sentido, os indicadores de desempenho são fundamentais por mensurar com medidas claras o desempenho da empresa, de acordo com as necessidades de informação colocadas pela administração. Porém os indicadores de desempenho, por si só, não garantem que as decisões estratégicas sejam executadas nos processos organizacionais da maneira como foi determinado pela gestão, existe a necessidade de se avançar nos processos para se promover o alinhamento estratégico e prepará-los para a execução da estratégia. Esta pesquisa tem como objetivo propor um método de apoio para a melhoria da gestão das empresas através da integração dos processos com as diretrizes estratégicas. O método foi desenvolvido a partir da combinação de uma metodologia de gestão estratégica baseada em indicadores de desempenho e da gestão de processos, para dar cobertura no ciclo completo da gestão. No âmbito da pesquisa, buscou-se no referencial teórico, aprofundar conceitos sobre estratégia, medição de desempenho por meio de indicadores e processos. No âmbito da ação, desenvolveu-se um estudo de caráter qualitativo na Universidade de Santa Cruz do Sul – UNISC. As entrevistas foram realizadas de forma direta, através de encontros, discussões e consultas in loco. Foram analisados e coletados documentos de gestão estratégica e de processos. No contexto geral, os resultados obtidos com a aplicação parcial do método foram satisfatórios, pois mostram que o mesmo estende a visão do gestor e aproxima o operacional da estratégia. Isso contribui não só no caso da UNISC, como também para empresas de outras áreas de atuação, no sentido de se realizar uma gestão mais efetiva e competitiva.
Palavras-chave: Estratégia, Avaliação de Desempenho, Balanced Scorecard (BSC), Business Process Management (BPM).
Aluno(a): Luis Fernando Antoniazzi
Título: O USO DE FERRAMENTAS DE CONTROLE E OTIMIZAÇÃO DA PRODUÇÃO NUMA INDÚSTRIA MOVELEIRA DA CIDADE DE LAJEADO - RS
Defesa: 14 de outubro de 2011
Banca examinadora: Prof. Dr. João Carlos Furtado (orientador), Prof. Dr. Adilson Ben da Costa (coorientador), Prof.ª Dra. Liane Mählmann Kipper (UNISC), Prof.ª Dra. Maria Angélica Oliveira (UFSM)
Resumo: As indústrias moveleiras gaúchas têm se caracterizado pela busca do aperfeiçoamento dos processos produtivos com a aquisição de novas máquinas, utilização de matérias-primas renováveis, introdução de novos equipamentos e implantação de novas técnicas gerenciais. Contudo, as pequenas indústrias sofrem para otimizar todos estes investimentos de forma a gerar resultados satisfatórios aos seus proprietários, ora falhando nos prazos de entrega, ora diminuindo a qualidade final dos móveis produzidos. Este estudo foi realizado numa pequena indústria de móveis que atua em licitações eletrônicas para órgãos públicos, sendo utilizada a metodologia da pesquisa-ação de forma a viabilizar o estudo das melhorias ocorridas durante o período de implantação das mudanças dos processos no chão de fábrica. O objetivo principal deste trabalho está focado na otimização dos recursos produtivos desta pequena indústria de móveis gaúcha localizada no Vale do Rio Taquari, organizando o chão de fábrica, planejando as compras de matéria-prima e o cronograma de entregas dos móveis, diminuindo os atrasos e melhorando a qualidade final dos produtos desta indústria. Foram estudadas algumas técnicas gerenciais como PCP, OPT, Just in Time, Programa 5S de Qualidade, Customização em massa, utilizadas em indústrias com problemas semelhantes aos encontrados nesta pequena indústria de móveis. Foi realizado um acompanhamento da produção de um lote de móveis, anotadas as falhas que ocorreram, e analisadas quais técnicas poderiam ser implementadas. Os resultados obtidos neste estudo foram excelentes, pois várias ferramentas puderam ser utilizadas nesta indústria como a customização em massa, planejamento e controle da produção, sistema Just in time, OPT e Programa de Qualidade onde cada uma teve contribuição fundamental na diminuição dos atrasos no cronograma de entrega e melhorando a qualidade tanto dos produtos quanto do ambiente de produção nesta empresa.
Palavras-chave: Técnicas de otimização da produção, indústria de móveis, Qualidade no chão de fábrica.
Aluno(a): Eloy Maury Metz
Título: APLICAÇÃO DA METAHEURÍSTICA BUSCA EM VIZINHANÇAS VARIÁVEIS NO FRETAMENTO DE ÔNIBUS INTERMUNICIPAIS
Defesa: 9 de dezembro de 2011
Banca examinadora: Prof.ª Dra. Rejane Frozza (orientadora), Prof. Dr. João Carlos Furtado (coorientador), Prof. Dr. Rolf Fredi Molz (UNISC), Prof. Dr. Andre Zanki Cordenonsi (UFSM).
Resumo: Na grande maioria das cidades do Brasil, o transporte coletivo por ônibus é o único meio de transporte público disponível para a população. Em cidades com maior número de habitantes, o grande número de veículos causa problemas no trânsito, como congestionamentos e poluição ambiental. Desta forma, verifica-se a necessidade de fomentar o transporte coletivo por ônibus. Uma medida que pode ser tomada, visando aumentar a utilização dos ônibus como transporte preferencial, é a redução de custos das tarifas. Como uma das maiores parcelas no custo das tarifas é o salário dos motoristas e cobradores, uma escala de trabalho adequada e eficiente poderia diminuir sensivelmente estes custos. O problema da escala diária de tripulantes consiste na atribuição da tarefa de condução dos veículos pelas tripulações, de tal forma que todas as viagens realizadas por uma empresa sejam executadas com o menor custo possível. O processo de escala é uma etapa de fundamental importância no planejamento das operações para uma empresa do setor de transporte coletivo e pertence à classe de problemas de difícil solução, cuja função de tempo computacional necessário para a resolução é não polinomial. Inúmeros métodos e técnicas têm sido aplicados para resolver tal problema, mostrando resultados bem variados. Este trabalho faz uso de um software específico desenvolvido para a geração da escala intermunicipal e, após, aplica uma metaheurística denominada Busca em Vizinhança Variável (VNS - Variable Neighborhood Search), para solucionar o problema dos ajustes das viagens de fretamento, com o objetivo de obter soluções melhores que as geradas hoje para os problemas reais. Durante a realização deste trabalho, foi desenvolvido um sistema computacional abordando o processo de geração da escala para as linhas regulares, para as linhas de turismo e para os fretamentos. São apresentados resultados dos experimentos computacionais com dados reais de uma empresa de transporte coletivo local. Foi empregado um método exato para a geração de soluções e os resultados obtidos apresentam um ganho em comparação com as soluções obtidas pela metodologia atualmente empregada no processo de geração da escala pela empresa.
Palavras-chave: Problema de escala de tripulações, Metaheurística busca em vizinhança variável, Escala de fretamentos.
Título: REDUÇÃO DO CONSUMO DE POTÊNCIA DE CIRCUITOS INTEGRADOS UTILIZANDO ESQUEMAS DE CODIFICAÇÃO EM CONJUNTO COM A FERRAMENTA ORION
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Márcio Eduardo Kreutz (coorientador), Prof. Dr. Eduardo Costa (UcPEL) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: O aumento constante da densidade de integração e do desempenho dos circuitos integrados permitem sistemas cada vez mais complexos em um único chip, o que aumenta conseqüentemente o consumo de potência, mesmo utilizando redes em chip (NoC) nas arquiteturas de barramento. Existem diversas formas para reduzir o consumo de potência de uma NoC. Como exemplo, uma possibilidade é reduzir o número de chaveamentos dos roteadores durante uma comunicação - técnicas de codificações de operandos - durante as comunicações. Este trabalho tem como propósito estudar técnicas que visam a redução do consumo de potência de redes em chip. Para tanto, diferentes técnicas de codificação de operandos serão comparadas.
Palavras-chave: Redes em Chip, esquemas de codificação de dados, Orion, consumo de potência.
Título: IDENTIFICAÇÃO DE FRONTEIRAS DE REGIÕES FECHADAS MEDIANTE O ESTUDO DA CURVATURA E ANÁLISE DE WAVELETS
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Profª. Dra. Lineia Schutz (FURG).
Resumo: O presente trabalho apresenta uma metodologia que pode ser empregada para a identificação de falsificações, adulterações e defeitos de fábrica. O método abordado baseia-se na identificação de formas, através da utilização da análise da curvatura de curvas parametrizadas no plano, juntamente com as transformadas discretas wavelets unidimensionais objetivando, depois, a reconstrução da imagem original. Para tal, foi adotada a seguinte metodologia: inicialmente, as imagens bidimensionais foram selecionadas e processadas em um software de edição gráfica, encontrando-se pontos na fronteira dos estilos, visando gerar a função de curvatura de forma numérica. A etapa seguinte consistiu em aplicar as transformadas discretas wavelets unidimensionais, com vistas a encontrar subsinais que representem as principais características da função de curvatura de cada imagem. Finalmente, os modelos foram identificados e reconstruiu-se a imagem original. A combinação das noções de Geometria Diferencial, Transformadas Discretas Wavelets e Análise por Componentes Principais mostrou-se favorável à identificação dos estilos, atingindo o objetivo proposto de unidimensionalizar os estilos e identificar as formas. Esse método pode ser aplicado em áreas da indústria que utilizam a caracterização da fronteira, como é o caso do Fashion Design, dos perfis aerodinâmicos e da computação gráfica, citando apenas alguns dos casos possíveis.
Palavras-chave: Função de Curvatura, Análise da Curvatura, Transformadas Discretas Wavelets, Análise por Componentes Principais.
Título: ANÁLISE EXPLORATÓRIA DE ESPECTROS NO INFRAVERMELHO DE FORMULAÇÕES COMERCIAIS CONTENDO GLIBENCLAMIDA COMPACTADOS POR TRANSFORMADAS WAVELETS
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof. Dr. Edson Irineu Müller (UFSM) e Prof. Dr. Marco Flôres Ferrão (UNISC).
Resumo: O presente trabalho consiste em propor um método visando identificar a presença da substância ativa glibenclamida utilizando espectros de reflexão difusa no infravermelho com transformada de Fourier (DRIFTS) e espectros de reflexão total atenuada (ATR), aliadas às técnicas quimiométricas HCA e PCA e métodos como as transformadas Wavelets discretas. Foram analisadas 12 amostras comerciais contendo glibenclamida, 1 amostra comercial contendo glibenclamida e cloridrato de metformina e 1 amostra comercial contendo somente cloridrato de metformina, sendo estas 12 amostras de procedência nacional e 2 de procedência argentina. As amostras eram diferentes quanto ao fabricante, lote e classificação. A técnica Wavelet foi utilizada para compactar os espectros dos fármacos, facilitando, assim, a análise dos dados. Já os métodos quimiométricos foram aplicados na classificação e comparação dos espectros, os quais foram identificados conforme a presença ou não da substância ativa glibenclamida. Estes espectros compactados foram processados através de aplicações distribuídas em arquiteturas de comunicação para avaliar a conveniência de usar redes-em-chip no processamento com o objetivo de melhorar o desempenho computacional bem como o consumo de energia tendo em vista a perspectiva de desenvolver um equipamento móvel de avaliação de espectro. Os resultados encontrados mostraram-se promissores.
Palavras-chave: Quimiometria, espectroscopia no infravermelho, transformada wavelets, redes-em-chip.
Título: ANÁLISE DE PERTURBAÇÕES NUM ELEVADOR DE TENSÃO MEDIANTE WAVELETS
Defesa: 27 de março de 2010
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. José Ramón Arica Chávez (UENF).
Resumo: A indústria da eletrônica de alta potência produz dispositivos diversos para elevar a tensão, entre os quais elevadores de tensão DC-DC, DC-AC, visando resolver o problema de falta de espaço em carros híbridos. Neste trabalho se analisam alguns tipos de perturbações num elevador de tensão DC-DC, especialmente do tipo distúrbios de voltagem. O objetivo é estabelecer uma análise mediante uma metodologia que utiliza transformadas discretas wavelets, experimentação, simulação, análise multivariada, na medida de obter um melhor conhecimento das perturbações mais freqüentes num elevador de tensão, e assim planejar a melhora na qualidade de sistemas de eletrônica de alta potência. Após estabelecer um estudo sobre um elevador de tensão (boost converter) com topologia fundamental, o propósito é estudar diversas variações na voltagem de entrada, e observar como varia a tensão de saída. Depois se aplica uma transformada discreta wavelets, cujos sub sinais de compactação a6, conservam propriedades características do sinal original, formando assim uma base de dados que será submetida às técnicas de análise multivariada (análise de componentes principais, PCA), o que permite uma classificação básica dos sinais. O problema inverso de reconhecimento dos sinais de entrada é realizado mediante a reconstrução do sinal aplicando a correspondente transformada inversa wavelets.
Palavras-chave: elevador de tensão, transformada discreta wavelet, análise de componentes principais, método métrico, perturbações, sistema diferencial.
Título: DETERMINAÇÃO SIMULTÂNEA DE PARÂMETROS DE QUALIDADE DE BLENDAS BIODIESEL/DIESEL EMPREGANDO REFLEXÃO NO INFRAVERMELHO MÉDIO E REGRESSÃO MULTIVARIADA
Banca examinadora: Prof. Dr. Marco Flôres Ferrão (Orientador), Prof. Dr. Adilson Ben da Costa (UNISC) e Prof. Dr. Luciano Marder (UNIVATES).
Resumo: A busca por novas fontes de recursos renováveis tem gerado várias discussões no âmbito mundial, especialmente relativas ao petróleo que representa 35% da matriz energética no mundo. No Brasil tem-se investido na produção e utilização do Biodiesel, sendo comercializado desde o início de 2008 em mistura com o diesel numa proporção de 2% (B2), tendo esta proporção aumentada, a partir de janeiro de 2010, para 5% (B5). Este trabalho abordou a obtenção de espectros no infravermelho médio com transformada de Fourier, utilizando as técnicas de Transreflectância e Reflexão Total Atenuada, sendo que a segunda apresentou melhores resultados e com ela que os modelos multivariados foram construídos. Para tanto, foram preparadas 45 amostras, que utilizaram diesel metropolitano ou interiorano (que diferem na quantidade de enxofre) para formar blendas com diferentes concentrações de biodiesel, que foram de 8,0 a 30,0 %(v/v). Para a construção dos modelos, esta dissertação propõem um estudo e o uso do método dos Mínimos Quadrados Parciais (PLS) juntamente com técnicas de seleção de variáveis iPlS e biPLS, para a construção de modelos com maior capacidade de predição, uma vez que utiliza faixas espectrais com maior correlação com a variável estudada. Este trabalho buscou não somente quantificar o biodiesel nas blendas biodiesel/diesel e também o efeito desta quantidade nas propriedade quantidade de enxofre, massa específica e ponto de fulgor. Para a quantificação de enxofre o modelo mais robusto foi o que utilizou o algoritmo siPLS com um RMSEP de 16,9 mg/Kg e combinou as faixas espectrais de 858 - 960 cm-1 e 2732 – 2834 cm-1. Para a predição da quantidade de biodiesel o modelo iPLS foi escolhido, pois alcansou resultados superiores ao siPLS, com um RMSEP de 0,154%(v/v) e utilizou a faixa espectral de 1068 – 1484 cm-1 que corresponde ao estiramento assimétrico C-C(O)- dos ésteres do biodiesel. Na determinação da massa específica, o modelo que melhor se ajustou foi o iPLS, por utilizar menor número de variáveis latentes, com um RMSEP de 0,865 kg/m3 utilizando a faixa espectral de 1274 - 1376 cm-1. Finalmente, para o ponto de fulgor, os modelos iPLS e siPLS alcançaram mesma performance tanto nas mediadas RMSEP quanto em número de variáveis latentes, sendo escolhido o iPLS com RMSEP de 1,38 °C , que utilizou a faixa espectral 1274 - 1376 cm-1. Todos os modelos que utilizaram o espectro inteiro mostraram capacidades de predição inferiores aos que foram submetidos a procedimentos de seleção de variáveis iPLS ou siPLS, sendo, a seleção de variáveis por métodos determinísticos, uma estratégia promissora para a determinação de propriedades físicas, químicas e físico-químicas.
Palavras-chave: biodiesel, espectrometrina no infravermelho, regressão por mínimos quadrados parciais, seleção de variáveis.
Título: UM MODELO FUZZY PARA ESTIMAR A DURABILIDADE DOS TRANSFORMADORES DE ALTA TENSÃO DOS ENERGIZADORES DE CERCA
Defesa: 06 de agosto de 2010
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. Rolf Fredi Molz (Coorientador), Profª. Dra.Rejane Frozza (UNISC) e Prof. Dr. João Baptista dos Santos Martins (UFSM).
Resumo: A utilização de cercas elétricas para contenção de animais é amplamente utilizada na agropecuária moderna. O energizador de cerca, aparelho que emite pulsos de alta tensão na cerca, constitui o principal componente da cerca elétrica. Neste trabalho foi desenvolvido um modelo estatístico, para estimar a durabilidade do transformador de AT (alta tensão) de um aparelho energizador de cerca, levando em conta as condições de uso e as características físicas do local da instalação. Para modelar o sistema de cerca eletrificada foi utilizada lógica fuzzy. O método de inferência fuzzy utilizado foi o modelo de MAMDANI e na defuzzificação foi utilizado o método do centro de gravidade (COG). O modelo foi implementado num simulador a ser utilizado no controle de qualidade de uma empresa fabricante de energizadores de cerca. O simulador apresenta uma estimativa para a durabilidade do transformador de alta tensão para as regiões de interesse da empresa, sendo que cada região tem suas características em relação à resistividade do solo, fator que influencia diretamente na qualidade do aterramento elétrico, que é componente fundamental para o bom funcionamento de um sistema de cerca eletrificada.
Palavras-chave: Cerca elétrica, energizador de cerca, eletrificador de cerca, transformador de alta tensão, aterramento elétrico, resistividade elétrica do solo, lógica fuzzy.
Título: A GESTÃO DO CONHECIMENTO COMO ESTRATÉGIA DE APOIO À TOMADA DE DECISÃO ORGANIZACIONAL NA ÁREA DE MARKETING
Defesa: 09 de dezembro de 2010
Banca examinadora: Profª. Dra. Rejane Frozza (Orientadora), Prof. Dr. Elpidio Oscar Benitez Nara (Coorientador), Prof. Dr. Rolando Soliz Estrada (UFSM) e Profª. Dra Liane Mählmann Kipper (UNISC).
Resumo: A abordagem deste trabalho foi o desenvolvimento de um sistema baseado em conhecimento a fim de auxiliar nos processos decisórios no setor de marketing de uma Empresa. Muitos autores afirmam que para responder com agilidade às demandas dos clientes e/ou usuários de uma organização, estas precisam estar munidas de informações. Em diferentes situações, as tomadas de decisões ainda levam em conta apenas experiências passadas, sendo que este modelo não atende mais aos preceitos do mundo corporativo atual, vista a velocidade com que o mercado e a concorrência estão na busca de aperfeiçoamento. É preciso incorporar conhecimento, advindo da execução dos processos, para contribuir na tomada de decisão qualificada. Centrado nos conceitos de Inteligência Competitiva e Inteligência Artificial, apresentamos nesta dissertação a proposta de um ciclo de armazenamento e tratamento do conhecimento organizacional, com o desenvolvimento de um sistema de apoio à decisão utilizando os preceitos da Gestão do Conhecimento que contribua nos processos de decisão estratégica, aplicado ao setor de marketing de uma empresa fabricante de acessórios para motociclistas. As perspectivas apontam para a utilização de sistemas inteligentes, contribuindo na melhoria do processo de tomada de decisão e objetivando obter respostas com alto padrão de qualidade referente às demandas do mercado. Após serem levantados os dados mais relevantes para a tomada de decisão, por meio de um método representacional baseado em regras, desenvolveu-se um sistema inteligente baseado em conhecimento, influenciando diretamente nas decisões da empresa. Com este sistema, é possível prever como será o cenário futuro com fatores que influenciam na venda de produtos, cenário que antes não era considerado como estratégico para melhorias no setor de marketing da empresa, pois não se sabia como avaliar estes fatores.
Palavras-chave: Inteligência Competitiva, Gestão do Conhecimento, Sistemas Inteligentes, Sistemas Baseados em Conhecimento, Tomada de Decisões Estratégicas.
Título: O USO DE AMBIENTES VIRTUAIS DE APRENDIZAGEM COM AGENTES PEDAGÓGICOS EMOCIONAIS PARA CAPACITAÇÃO EM ORGANIZAÇÕES
Defesa: 13 de dezembro de 2010
Banca examinadora: Profª. Dra. Rejane Frozza (Orientadora), Profª. Dra. Liane Mählmann Kipper (Coorientadora), Prof. Dr. Jacques Nelson Corleta Schreiber (UNISC) e Profª. Dra. Adriana Soares Pereira (UFSM).
Resumo: Este trabalho apresenta a modelagem e o desenvolvimento de um agente pedagógico, chamado Dóris, em um ambiente virtual de aprendizagem, expressando emoções (alegria, tristeza, expectativa, dúvida, atenção, surpresa e indignação) na interação do ambiente com os usuários. A base de conhecimento do ambiente, modelada na forma de páginas web, refere-se ao domínio da coleta seletiva, reciclagem e compostagem. Atualmente, o mercado de trabalho vem se tornando cada vez mais especializado e a preocupação em qualificar os profissionais tem sido grande entre as organizações, havendo a necessidade de submetê-los a treinamentos, cursos e especializações, com o objetivo de agregar mais valor de capital humano às organizações. Assim, este trabalho também aborda uma prática pedagógica para capacitação nas organizações, com o uso de um ambiente virtual de aprendizagem com agente pedagógico emocional, visando qualidade, motivação e entusiasmo nos processos de aprendizagem, otimização de tempo e recursos das organizações, mantendo resultados eficientes e de qualidade nos processos executados. O ambiente foi utilizado por um grupo de dez usuários em um processo de capacitação para o sistema de coleta seletiva, reciclagem e compostagem, prática utilizada na Universidade de Santa Cruz do Sul (UNISC). Considerando que a cada ano muitas pessoas acessam a Universidade, atualmente o processo de capacitação ocorre anualmente e de forma presencial, atingindo um número limitado de pessoas. Com o uso deste ambiente virtual de aprendizagem, mais pessoas poderão acessar conhecimento sobre o assunto, tornando o processo de acomodação e assimilação do conhecimento mais ágil e ao alcance de toda a comunidade acadêmica, fortalecendo a educação ambiental e a sustentabilidade organizacional.
Palavras-chave: Ambientes Virtuais de Aprendizagem para Capacitação em Organizações; Agentes pedagógicos com Emoções; Sistema de Coleta Seletiva, Reciclagem e Compostagem.
Aluno(a): Elisangela Gonçalves Rivero
Título: AVALIAÇÃO DE MEDICAMENTOS INDUSTRIALIZADOS CONTENDO ACICLOVIR ATRAVÉS DE ESPECTROSCOPIA POR REFLEXÃO NO INFRAVERMELHO E ANÁLISE MULTIVARIADA
Defesa: 06 de abril de 2009
Banca examinadora: Prof. Dr. Marco Flôres Ferrão (Orientador), Prof. Dr. Luciano Marder (co-orientador), Profª. Dra. Fabiana Ernestina Barcellos da Silva (UNIPAMPA) e Prof. Dr. Rubén Edgardo Panta Pazos (UNISC).
Resumo: No presente trabalho foram empregadas técnicas de reflexão no infravermelho em conjunto com análises estatísticas de dados multivariados, como a análise por componentes principais (PCA) e análise por agrupamentos hierárquicos (HCA). Foram adquiridas 25 amostras em creme contendo 5% de aciclovir, sendo 22 amostras adquiridas no mercado nacional e 3 amostras no mercado argentino.
Inicialmente os espectros reflectância total atenuada no infravermelho médio (ATR/FTIR, do inglês Fourier transform infrared spectroscopy with attenuated total reflection) foram adquiridos na faixa de 4.000 a 650cm-1, com resolução de 4cm-1 e 32 varreduras, utilizando um acessório de reflectância total atenuada com cristal de seleneto de zinco (ZnSe) da PIKE Techonologies acoplado a um espectrofotômetro de infravermelho com transformada de Fourier NICOLET Magna 550. Os espectros foram obtidos em quintuplicata e normalizados na escala. Já para os espectros de ATR/NIR foram adquiridos na faixa de 10.001 a 2.001 cm-1, com resolução de 4 cm-1 e 32 varreduras, utilizando uma acessório de reflectância total atenuada com cristal de ZnSe da PIKE Technologies acoplado a um espectrofotômetro de infravermelho com transformada de Fourier Spectrum 400 MIR/NIR da PERKIN ELMER, cedido pela Perkin-Elmer, sendo obtido apenas um espectro para cada amostra.
Finalmente, os espectros NIRA foram adquiridos em duplicata na faixa de 8.890 a 4.200 cm-1 utilizando o espectrômetro FT-IR Spectrum 400 MIR/NIR da PERKIN ELMER acoplado a um acessório para transflectância no infravermelho próximo, utilizando um detector integrado de InGaAs estabilizado de alto desempenho. Os espectros obtidos foram tratados por algoritmos de análise multivariada, utilizandose a Análise por Componentes Principais (PCA) e Análise de Agrupamentos Hierárquicos (HCA) através do programa computacional PIROUETTE 3.11 da INFOMETRIX, visando verificar a similaridade entre as formulações dos diferentes fabricantes, lotes e classificação (medicamentos de referência, genéricos e similares). A aplicação destas técnicas por reflexão no infravermelho (ATR/FTIR, ATR/NIR e NIRA) junto às de análise multivariada (HCA e PCA), foram eficientes para desenvolver uma metodologia simples, rápida e não destrutiva para a análise dos cremes contendo aciclovir, tendo como principal vantagem em relação às 5 metodologias usuais a não geração de resíduos, sendo adequadas ao controle e inspeção de medicamentos industrializados.
Palavras-chave: aciclovir, espectroscopia por reflexão no infravermelho, espectroscopia por transflectância no infravermelho, análise multivariada.
Aluno(a): Patrícia Fernanda Doern de Almeida Fischborn
Título: IDENTIFICAÇÃO DE BLENDAS DE COMBUSTÍVEIS MEDIANTE TRANSFORMADA WAVELET DISCRETA
Defesa: 13 de abril de 2009
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Marco Túllio Menna Barreto de Vilhena(UFRGS), Prof. Dr. Adilson Ben da Costa (UNISC) e Prof. Dr. Marco Flôres Ferrão (UNISC).
Resumo: O objetivo consiste em propor um método alternativo visando identificar adulterações de combustíveis, em especial quanto a proporção dos componentes em blendas gasolina/álcool. A tarefa de identificação é possível com a espectroscopia no infravermelho com Transformada de Fourier, a aplicação de uma transformada discreta wavelet, além de métodos métricos e estatísticos (Análise de Componentes Principais). A técnica wavelet foi utilizada para compactar os espectros das blendas combustíveis, facilitando assim a análise dos dados. Já os métodos métricos e estatísticos foram aplicados na classificação e comparação dos espectros, os quais foram identificados conforme percentual de álcool nas blendas gasolina/álcool. Os resultados encontrados foram satisfatórios, sendo que nenhuma das amostras comerciais analisadas apresentou teores de álcool acima do permitido.
Palavras-chave: transformada wavelet, métodos métricos e espectroscopia no infravermelho.
Aluno(a): Fabrício Soares
Título: MODELO DE PREDIÇÃO FINANCEIRA UTILIZANDO WAVELETS E REDES NEURAIS ARTIFICIAIS
Defesa: 17 de abril de 2009
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Profª. Dra. Rejane Frozza(co-orientadora), Prof. Dr. Augusto Vieira Cardona (PUCRS) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Este trabalho apresenta o desenvolvimento de um modelo de predição de séries temporais financeiras com o uso da Rede Neural Artificial TLFN Distribuída (Time Lagged FeedForward Network - Rede Neural Alimentada para frente Atrasada no Tempo), treinada com o algoritmo backpropagation temporal e com o préprocessamento dos sinais de entrada realizado com as Transformadas Wavelets Discretas. A metodologia demonstra como a análise de multirresolução feita com o algoritmo piramidal de Mallat colaborou para o aumento da capacidade de generalização da rede neural, otimizando as previsões feitas pelo modelo implementado. Com a finalidade de demonstrar a eficácia desta metodologia, foram realizados estudos de caso envolvendo as séries históricas de cotações das ações das empresas Petrobrás (PETR4) e Telemar (TNLP3), além das cotas, negociadas no mercado secundário, do Fundo de Investimento Imobiliário Almirante Barroso (FAMB11B).
Palavras-chave: Predição; Séries temporais; Mercado de capitais; Rede Neural Artificial TLFN Distribuída; Transformadas Wavelets Discretas.
Aluno(a): Marco André Binz Hennes
Título: PLATAFORMA PARA TESTES DE CIRCUITOS DIGITAIS
Defesa: 20 de maio de 2009
Banca examinadora: Prof. Dr. Rafael Ramos dos Santos (Orientador), Profª. Dra. Érika Fernandes Cota (UFRGS) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Com o avanço da tecnologia de produção de circuitos integrados, é necessário um maior esforço para concepção e verificação destes circuitos. O teste de circuitos integrados envolve diversas etapas e seu objetivo é identificar e isolar dispositivos falhos. Quando um novo circuito integrado é projetado, e antes que seja enviado para produção, a primeira etapa deve verificar se o projeto está correto. Com o crescimento da microeletrônica no país, com certeza será necessário que sejam criados dispositivos de testes cada vez mais eficientes e de preferência com custos acessíveis às empresas de menor porte. O presente trabalho visa a criação de um ambiente de verificação de baixo custo usando uma linguagem de programação que permita verificar os circuitos digitais. Esse trabalho descreve uma plataforma de verificação de circuitos integrados que emprega testes estruturais. Essa análise é feita em circuitos combinacionais do benchmark ISCAS85 (HANSEN et al. 1999) para falhas do tipo stuck-at. A plataforma de verificação foi desenvolvida com componentes de baixo custo, o que dá à plataforma um grande diferencial.
Além disso, o ambiente realiza tanto verificação em software, como em hardware. Para a verificação realizada em hardware, o ambiente emula o circuito em um FPGA com o propósito de comprovar a simulação em um ambiente real. Outro diferencial importante é a integração dos ambientes de simulação, permitindo realizar verificação em software, como em hardware.
Palavras-chave: Simulação de falhas, emulação de falhas, teste de circuitos integrados, verificação, falhas stuck-at .
Aluno(a): Lúcio Renê Prade
Título: ESTUDO DE TÉCNICAS DE CODIFICAÇÃO VISANDO A OTIMIZAÇÃO DE CIRCUITOS DIGITAIS: UM ESTUDO DE CASO
Defesa: 22 de maio de 2009
Banca examinadora: Prof. Dr. Rafael Ramos dos Santos (Orientador), Prof. Dr. João Baptista dos Santos Martins (UFSM) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Esta dissertação trata do estudo do projeto de um circuito integrado digital de comunicação de dados, mais especificamente um circuito para comunicação de dados em redes Ethernet.
Durante o trabalho, realizou-se o estudo do fluxo e das ferramentas CAD utilizadas em cada etapa do projeto, detendo-se nas etapas de codificação em linguagem de descrição de hardware Verilog e nos resultados de síntese lógica. Estas duas etapas foram o foco da dissertação onde levantou-se na bibliografia e na prática, algumas técnicas a nível de codificação em linguagem de hardware para otimização do projeto nos quesitos área, potência dissipada e freqüência máxima de funcionamento. A aplicação de diferentes combinações dessas técnicas ao projeto do controlador Ethernet tido como estudo de caso, tiveram seus resultados de síntese lógica analisados.
Estas análises foram feitas levando-se em consideração custos de implementação como tempo e complexidade, ganhos reais em número de portas lógicas, miliwatt e freqüência, além de levar em conta outras vantagens e desvantagens técnicas. Com isso determinou-se um conjunto de técnicas possíveis de se aplicar à codificação em linguagem de descrição de hardware do projeto de um circuito integrado digital, que pode trazer otimização e melhorias nos três quesitos já citados.
Estas técnicas podem ser facilmente utilizadas e combinadas com outras em etapas como
no roteamento, síntese física ou mesmo no processo de fabricação para o desenvolvimento de projetos com grandes restrições de área, potência e freqüência.
Palavras-chave: Projeto de Circuitos Integrados Digitais, Otimização, Técnicas de Codificação em Linguagem de Descrição de Hardware, Síntese Lógica.
Aluno(a): Leonardo Maia
Título: O USO DO MÉTODO DO ENXAME DE PARTÍCULAS NA OTIMIZAÇÃO DA LATÊNCIA E CONSUMO DE ENERGIA DE UMA REDE-EM-CHIP.
Defesa: 21 de julho de 2009
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Eugênio de Oliveira Simonetto (UDESC) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Com o desenvolvimento de aplicações para computadores pessoais, servidores e dispositivos eletrônicos, os quais exigem um poder computacional cada vez maior, surgiu a necessidade de tecnologias que aperfeiçoassem tanto o desempenho físico quanto o lógico destes. A rede-em-chip, que é um conjunto de roteadores e canais ponto-a-ponto que interconectam os núcleos de um sistema integrado de modo a suportar a comunicação entre esses núcleos, surgiu como opção de otimização arquitetural do hardware. Já em relação ao software, existem várias técnicas que utilizam algoritmos inteligentes, como o Enxame de Partículas, o qual foi proposto por Eberhart e Kennedy em 1995, sendo um algoritmo de otimização estocástico de conceito simples, de fácil implementação, robustez para controlar parâmetros e eficiência computacional durante o processo de otimização. Sua heurística evolutiva é baseada em uma população (enxame), formada por indivíduos (partículas), cuja evolução se dá por meio da velocidade. Cada partícula possui uma velocidade que a permite percorrer o espaço de busca e uma posição nesse espaço. Este trabalho teve como objetivo otimizar a latência e o consumo de energia de uma rede-em-chip, utilizando duas topologias diferentes, a malha e a toróide através de um simulador usando o método de Enxame de partículas o qual, através dos experimentos realizados, se mostrou eficiente neste tipo de otimização.
Palavras-chave: Rede-em-chip, Enxame de Partículas, Simulador, Otimização.
Aluno(a): Oscar Piaia
Título: UTILIZAÇÃO DE SISTEMA A VÁCUO NA OTIMIZAÇÃO DO TRANSPORTE DE RESÍDUOS CÁRNEOS INDUSTRIAIS
Defesa: 19 de agosto de 2009
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Luciano Marder (UNIVATES) e Prof. Dr. João Carlos Furtado (UNISC).
Resumo: As indústrias que produzem alimentos derivados de carnes, principalmente abatedouros frigoríficos, geram grande quantidade de resíduos industriais sólidos e líquidos afetando o meio ambiente e poluindo as águas. Águas que são utilizadas na indústria e precisam ser devolvidas ao meio ambiente com características de qualidade igual ou superior do que as recebidas para o uso. Ainda hoje o grande desafio destas empresas é gerenciar estes resíduos, pois são resíduos de baixo valor agregado e somente geram custos e não lucros, mas precisam ser tratados, processados e terem destino ecologicamente corretos. Certamente a melhor estratégia tem sido gerenciar a origem dos resíduos, ainda junto aos processos produtivos através de um sistema de gestão dos resíduos, coletando-os onde são gerados e destinando-os a locais adequados para processamento, através de meios de transporte eficazes e tecnologicamente corretos. Os resíduos industriais sólidos necessitam ser transportados para locais afastados para serem processados, conforme determinam as normas sanitárias brasileiras. Os transportes mais comumente utilizados são através de: veículos automotivos adaptados, através de chutes pneumáticos (ar comprimido) e utilizando a água como meio propulsor de transporte onde são misturados os resíduos gerando poluição da água. No trabalho desenvolvido para resolver este problema criou-se e operacionalizou-se um sistema para o transporte dos resíduos sólidos industriais: ossos, vísceras e resíduos cárneos, desde os processos onde são gerados, até os locais onde serão processados, através da tecnologia da energia do vácuo, com desenvolvimento de equipamentos especiais e um sistema totalmente automatizado; otimizando com viabilidade econômica de implantação, evitando poluir as águas industriais, com funcionamento pleno, operação simples, baixa manutenção, baixo consumo de energia elétrica, satisfazendo os objetivos propostos.
Palavras-chave: Sistema de transporte a vácuo, Resíduos cárneos industriais, Gestão por processos em resíduos industriais.
Aluno(a): Leonardo Gabriel Cassani Aramburú
Título: AGENTES PEDAGÓGICOS ANIMADOS: DESENVOLVENDO UMA RETROALIMENTAÇÃO (FEEDBACK) NÃO VERBAL
Defesa: 11 de setembro de 2009
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Profª. Dra. Alessandra Dahmer (UNISC) e Profª. Dra. Sybele Maria Segala da Cruz (SESI-SC).
Resumo: Este trabalho propõe a inserção de uma nova característica ao projeto “O uso de estilos cognitivos e de agentes pedagógicos no processo de ensino-aprendizagem”, realizado na UNISC – Universidade de Santa Cruz do Sul, com a retroalimentação (feedback) não verbal do agente animado de interface Dóris através de representações das emoções (alegria, tristeza, surpresa e normal). Com o objetivo tornar os Sistemas Tutores Inteligentes – STI mais afetivo melhorando o rendimento dos usuários destes ambientes de ensino.
Foi obtida uma melhora nos acertos quando o ambiente era utilizado com a presença de comunicação não verbal, ainda que seja uma melhora tímida, ela pode ser comprovada através de testes estatísticos não paramétricos, como: Chi-quadrado e Exato de Fisher, métodos estes utilizados quando temos amostras pequenas.
Palavras-chave: agentes de interface animado; Sistemas Tutores Inteligentes; agentes pedagógicos; ambientes virtuais de aprendizagem; comunicação não verbal.
Aluno(a): Adriano José Bombardieri
Título: METODOLOGIA PARA O PROCESSO DE VALIDAÇÃO DE EQUIPAMENTOS PARA TESTES DE DISPOSITIVOS ETHERNET
Defesa: 07 de novembro de 2009
Banca examinadora: Prof. Dr. Rafael Ramos dos Santos (Orientador), Prof. Dr. João Baptista dos Santos Martins (UFSM) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Os dispositivos para interconexão de redes Ethernet tem seu desempenho e funcionalidades certificados por equipamentos para testes de dispositivos Ethernet. No entanto, tais equipamentos necessitam de validação. Atualmente esse processo, quando realizado, não referência normas ou recomendações específicas que garantam a cobertura necessária em cada teste.
O processo de validação de equipamentos de testes de dispositivos Ethernet apresentado nesse trabalho compreende a elaboração de formulários em formato de checklist e os meios utilizados para o preenchimento dos campos dos formulários, essas ferramentas compõe a metodologia proposta.
Os formulários foram elaborados utilizando como referência as RFC’s e o padrão Ethernet 802.3. Os métodos apresentados foram aplicados em um equipamento durante o seu desenvolvimento, onde resultados experimentais são apresentados. Vê-se a metodologia como contribuição academica para os processos de validação de tais equipamentos, aplicada à laboratórios de pesquisa e por industrias do setor.
Palavras-chave: Equipamentos de testes, validação de equipamentos, dispositivos Ethernet, metodologia de testes.
Aluno(a): Fabiano Thomasini
Título: UM SISTEMA DE GESTÃO DO CONHECIMENTO APLICADO PARA A MELHORIA DE PROCESSOS EM UMA EMPRESA DE TRANSPORTES
Defesa: 27 de novembro de 2009
Banca examinadora: Profª. Dra. Rejane Frozza (Orientadora), Prof. Dr. João Helvio Righi de Oliveira (UFSM) e Profª. Dra. Liane Mählmann Kipper (UNISC).
Resumo: O conhecimento gerado em organizações tem se tornado um grande diferencial competitivo de mercado. As empresas que conseguem disseminar o conhecimento através de idéias e soluções aplicadas nos problemas apresentam como principal resultado a qualidade nos seus produtos e serviços, em conseqüência de tomadas de decisão mais estratégicas.
Contudo, a organização deve ter em mente que não terá vantagens na implantação de um processo de Gestão do Conhecimento se não possuir uma estrutura organizacional definida e não hierárquica, uma cultura organizacional que tenha um foco definido e a Tecnologia da Informação que auxilie para o processo de armazenagem e busca de informação com agilidade e eficácia, gerando conhecimento útil.
Este trabalho apresenta conceitos, características e considerações sobre a importância da Gestão do Conhecimento e seus benefícios para uma organização, descrevendo todo processo de implantação de Gestão do Conhecimento em uma Empresa de Transportes como estudo de caso, e apresentando as mudanças ocorridas na sua estrutura organizacional, cultura organizacional e área de tecnologia da informação.
Palavras-chave: Conhecimento, Gestão do Conhecimento, Cultura Organizacional, Balanced Scorecard.
Aluno(a): Antonio Carlos Alves
Título: GIRS – GENETIC INFORMATION RETRIEVAL SYSTEM
Defesa: 27 de novembro de 2009
Banca examinadora: Prof. Dr. Jacques Nelson Corleta Schreiber (Orientador), Prof. Dr. João Carlos Furtado (Coorientador), Prof. Dr. Raul Sidnei Wazlawick (UFSC) e Profª. Dra. Rejane Frozza (UNISC)
Resumo: Atualmente as empresas e as corporações têm uma grande quantidade de documentos internos (normas, contratos, resoluções, atas, comunicações, entre outros) gerados no seu cotidiano. Estes documentos são armazenados nos mais diversos locais e formatos, e desta forma, surge à necessidade de recuperar informação constante nestes documentos. O problema é que a quantidade e a diversidade destes documentos armazenados dificultam muito a localização das informações consideradas úteis pelos usuários destas coleções.
Além disso, ainda há uma grande dificuldade de encontrar as informações verdadeiramente relevantes, que muitas vezes ficam perdidas em meio a uma quantidade excessiva de documentos não tão relevantes.
Esta dissertação apresenta uma proposta de um sistema de recuperação de informações onde a relevância dos documentos recuperados evolua a cada interação através do uso de algoritmos genéticos e com a ajuda direta dos usuários deste sistema através de um feedback implícito, visando uma melhora na relevância dos documentos recuperados, a cada nova consulta.
Palavras-chave: recuperação de informação, algoritmos genéticos, motor de busca, retro-alimentação de relevância.
Aluno(a): Juliano Gauciniski
Título: ESTUDO DAS TRANSFORMADAS WAVELETS PARA UTILIZAÇÃO EM RECONHECIMENTO E CLASSIFICAÇÃO DE COMANDOS DE VOZ
Defesa: 11 de dezembro de 2009
Banca examinadora: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Rubén Edgardo Panta Pazos (Coorientador), Prof. Dr. Eugênio de Oliveira Simonetto (UDESC) e Prof. Dr. Marco Flôres Ferrão (UNISC).
Resumo: Tecnologias de reconhecimento de voz permitem que computadores equipados com microfones interpretem a fala humana para transcrição ou como método de comando por voz. Por meio dessa tecnologia, pode-se realizar tarefas sem a utilização de determinados dispositivos de entrada, como o mouse e o teclado, deixando livres as mãos do operador para realizar diferentes tarefas. Neste contexto, foi elaborado um projeto que tem como objetivo, através de técnicas de reconhecimento de padrões, desenvolver um estudo das transformadas wavelets com a finalidade de definir um melhor método para realizar a classificação do fumo em folha através de comandos de voz, sem a necessidade de nenhum outro dispositivo de entrada de dados. A metodologia empregada foi a aquisição da voz em formato digital e a aplicação das transformadas wavelets Haar e Daubechies para análise. Para o processo de classificação e reconhecimento dos padrões, empregaram-se as técnicas de Análises de Componentes Principais e Power Cepstrum. Diversos empecilhos ocorreram durante a fase de classificação, principalmente pelo fato do sinal compactado ser de grande porte. Dessa forma, fez-se necessária a utilização do método matemático Power Cepstrum, permitindo a redução do número de elementos no sinal e possibilitando obter êxito na classificação dos elementos, neste caso, orientados pela freqüência de cada fonema analisado. Foi possível concluir que as transformadas Wavelets utilizadas possibilitaram o reconhecimento de padrões, porém, possuem limitações quando se trata de sinais de grande porte, necessitando, desta forma, de um pré-processamento.
Palavras-chave: Transformadas Wavelets, Análise de Componentes Principais, Power Cepstrum, Reconhecimento de Voz, Comandos de Voz.
Aluno(a): Joel Giordani Pereira
Título: ANÁLISE COMPARATIVA EM RELAÇÃO À QUALIDADE E DESEMPENHO DE CODECS USANDO COMPRESSÃO POR CELP E WAVELETS
Defesa: 17 de dezembro de 2009
Banca examinadora: Prof. Dr. Rafael Ramos dos Santos (Orientador), Prof. Dr. Rubén Edgardo Panta Pazos (Coorientador), Prof. Dr. Philippe Olivier Alexandre Navaux (UFRGS) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumo: Neste trabalho, foi realizado o desenvolvimento de dois codecs de áudio, usando a teoria de wavelets, e uma análise comparativa entre os mesmos e o codec open-source Speex, que implementa o algoritmo CELP. Os tipos de wavelets usados foram wavelets Haar e wavelets Coiflet com 30 coeficientes. A aplicação alvo dos codecs é em um dispositivo embarcado específico para comunicação VoIP, sendo que os mesmos foram compilados para o uso em processadores da arquitetura ARM920T. Os codecs foram avaliados através da análise da taxa de compactação do sinal, a qualidade após aplicação do codec e a necessidade de processamento para a codificação e decodificação. Para obter a taxa de compactação foi analisada a quantidade de bits dos dados de entrada e saída do codificador. Os indicadores de qualidade foram obtidos através do método subjetivo MOS e método objetivo PESQ. O uso do simulador QEmu possibilitou analisar e comparar o desempenho dos codecs através da extração dos dados do traço da execução das instruções. De acordo com os resultados obtidos, o Speex obteve uma melhor aceitação quanto à qualidade do sinal em ambos os métodos de avaliação, seguido do Speex-Wavelet Coiflet e, por último, o Speex-Wavelet Haar. A taxa de compactação foi maior no Speex, que operou a 15 kbps, em comparação a 40 kbps dos codecs wavelet. Quanto à necessidade de processamento, o codec Speex-Wavelet Haar executou menos instruções no processador e ocupou menos ciclos de processamento, seguido do Speex-Wavelet Coiflet e, por último, o codec Speex.
Palavras-chave: Codec, ARM, CELP, Wavelet, Simulação orientada a traço, MOS, PESQ.
Aluno(a): Tiago Zonta
Título: DESENVOLVIMENTO DE ALGORITMOS COMPUTACIONAIS PARA CRIAÇÃO E ORÇAMENTO DE PROJETOS DE FORROS
Defesa: 18 de dezembro de 2009
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Itamar Leite de Oliveira (UFJF) e Prof. Dr. Rolf Fredi Molz (UNISC).
Resumos: empresas possuem vários processos para redução de custos, que são freqüentemente obtidos a partir de estratégias aplicadas na produção, armazenagem, montagem e distribuição. Neste sentido um problema que pode ser apontado é a perda de material, que ocorre devido à dificuldade de encontrar a melhor forma de fazer um reaproveitamento.
Muitos materiais são distribuídos pelas indústrias de matéria prima em tamanho padrão e devem ser cortados em novos itens de tamanho igual ou menor que o original. No momento do corte, muitos objetos menores não são utilizados. Essa inutilização, quando em grande quantidade, acarreta um desperdício de material muito grande e, consequentemente, um problema financeiro.
Estas empresas, se corretamente instruídas, poderiam investir em pesquisas que pudessem oferecer soluções rápidas e com melhor resultado, utilizando a alta capacidade de processamento dos computadores, já que muitas delas possuem soluções manuais.
O problema, então, é achar a melhor forma de fazer este corte de modo a minimizar a perda do objeto a ser cortado ou maximizar o aproveitamento de material dos itens utilizados. Dessa forma, o foco desta dissertação foi estudar e desenvolver um método para resolução de um problema encontrado numa empresa de montagem de ambientes de paredes de divisórias e forros.
A montagem dinâmica de ambientes é uma solução cada vez mais utilizada por quem necessita de mudanças constantes nos layouts de seus ambientes, evitando obras que tragam transtornos. Esses podem ser denominados como ambientes facilmente modificáveis. Toda esta montagem é feita a partir de desenhos pré-definidos, nos quais são determinadas as dimensões da obra, permitindo o calculo do orçamento. Então, porque não utilizar também as informações do desenho para entrada do problema do corte?
Este trabalho apresenta a criação destes desenhos através de um componente CAD, a utilização de grafos planares e geometria computacional com a biblioteca CGAL na sua interpretação, gerando, assim, as informações necessárias para a pesquisa operacional aplicar sua característica de resolver problemas realizando o preenchimento ou a distribuição dos materiais obtendo os itens para aplicação do corte unidimensional.
A contribuição deste trabalho é mostrar todo este método que, até então, era aplicado de forma específica ou de forma separada, isto é, uma solução responsável pelo desenho e outra que recebe a entrada manualmente das dimensões para criação do projeto.
Palavras-chave: grafos planares, geometria computacional, biblioteca CGAL, pesquisa operacional.
Aluno(a): Gilson Gilmar Holzschuh
Título: CONTROLE DE QUALIDADE NA INDÚSTRIA DE RÁFIA PADRONIZAÇÃO E OTIMIZAÇÃO DOS PROCESSOS
Defesa: 18 de dezembro de 2009
Banca examinadora: Profª. Dra. Liane Mählmann Kipper (Orientadora), Prof. Dr. Marco Flôres Ferrão (coorientador), Prof. Dr. Elpidio Oscar Benitez Nara (UNISC) e Prof. Dr. Geraldo Lopes Crossetti (Dom Bosco).
Resumo: Este trabalho apresenta um estudo de caso realizado na empresa Ráfia Embalagens, bem como um estudo experimental realizado no laboratório da UNISC, seu tema tem como base o controle de qualidade na indústria de ráfia, uma padronização e otimização dos processos com foco na extrusão de ráfia, o qual é processado por uma extrusora monorosca do tipo “balão”. Primeiramente, foi realizada uma análise da situação inicial da indústria e avaliação do problema. Constatou-se que o problema principal era a geração de resíduos no processo e problemas de controle de qualidade do produto. Com isso, foi realizada uma coleta de dados através de planilhas de controle de processos com foco na formulação da extrusão, considerada fator principal na qualidade do produto e formação de resíduos. Com base na fórmula inicial de extrusão, foram elaboradas outras três amostras onde se acrescentou material reprocessado para verificar a viabilidade de reaproveitamento e redução no custo da indústria. As amostras foram analisadas no laboratório da UNISC. Os ensaios foram realizados no equipamento Emic DL 10000, utilizando a norma ASTM 882, que demonstraram a viabilidade de acréscimo de material reprocessado de 1,97%, apresentando uma redução do custo em 0,986%. Para o gerenciamento de processos foram utilizadas ferramentas como o método do Grupo GAV e algumas ferramentas de gestão da qualidade. Além disso, também foi introduzido um novo macro-processo no organograma da empresa: o setor de controle de qualidade e treinamento, que tem como objetivo conduzir o controle de qualidade e avaliação dos processos e promover treinamento dos colaboradores. Destaca-se ainda, um programa de remanufatura e apoio mútuo na cadeia produtiva com o reuso dos resíduos de produção em outros segmentos como matéria-prima.
Palavras-chave: Extrusão, ráfia, processos, padronização e otimização.
Aluno(a): Robson Luiz Lima
Título: AVALIAÇÃO DA DESTALA MECANIZADA NO PROCESSAMENTO DE FUMO
Trabalho Completo
Defesa: 26 de fevereiro de 2008
Banca examinadora: Prof. Dr. Geraldo Lopes Crossetti (Orientador), Prof. Dr. Marco Flores Ferrão (Co-orientador), Profª. Dra. Liane Mällmann Kipper (UNISC) e Prof. Dr. Djalma Dias da Silveira (UFSM).
Resumo: O processo intitulado Destala Mecanizada consiste em uma nova forma de separação da lâmina do talo, da folha, em substituição ao processo de destala manual convencional em uso, atualmente, no processamento do fumo. Foi realizada uma comparação entre os dois processos, avaliando o rendimento de lâmina, produtividade e conforto ergonômico, para três classes de fumo: XDC, MOCA e BOCA, que representam os estilos filler, flavour e full flavour, respectivamente. Para todas as classes avaliadas foram definidas rotações do rolo acionado no processo de destala mecanizada, com base na posição foliar, textura da folha de tal forma que proporcionassem o melhor rendimento. As avaliações realizadas, comparando os dois processos, indicam uma vantagem competitiva para o processo de destala mecanizada em relação ao processo de destala manual em todos os tópicos e classes testadas. Ou seja, para os itens rendimento de lâmina, produtividade e conforto ergonômico verificamos um melhora significativa em prol do processo de destala mecanizada. O processo mecanizado permite também uma drástica redução no número e nos tipos de movimentos realizados por cada funcionário e é realizado na posição sentada, o que, provavelmente, levará a uma redução do número de casos de doenças por esforço repetitivo.
Palavras-chave: destala manual, destala mecanizada, processamento de fumo, fumo.
Aluno(a): Eloísa Marciana Kolberg Theisen
Título: CONFIABILIDADE NO PROCESSO DE RASTREABILIDADE POR MEIO DE ANÁLISE DE IMAGENS RETINAIS
Trabalho Completo
Defesa: 28 de março de 2008
Banca Examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Rolf Fredi Molz (Co-orientador), Prof. Dr. Marco Flôres Ferrão (UNISC) e Prof. Dr. Rodney Carlos Bassanezi (UNICAMP/ UFABC)
Resumo: A presente dissertação apresenta os processos envolvidos na aplicação do sistema de reconhecimento da identidade de indivíduos, mais precisamente de bovinos e bufalinos, que é um dos itens mais importantes na implementação do processo de rastreabilidade em carnes. Esforços internacionais e nacionais visam um controle mais rígido da qualidade, a proveniência e certificação de carnes, que vai desde a propriedade até a indústria. A identificação dos indivíduos será realizada por varredura de retina, um dos métodos mais precisos em biometria. O processamento e análise de variadas imagens de retina, provenientes da literatura e do banco de imagens adquirido, são realizados conjuntamente com softwares matemáticos consagrados e softwares livres sendo que os procedimentos serão transpostos à elaboração de um algoritmo para embarcação em equipamento captura de imagens, que incorporará o sistema de rastreabilidade da empresa credenciadora. O processo ocorre com a fase de identificação automática das características retinais, através de processos clássicos com imagens, aplicação da Transformada Hough na detecção de coordenadas centrais da Região de Interesse no estudo, o realce de características proporcionado pela Congruência de Fase, aliados à aplicação de Bancos de Filtros Bivariados de Transformada Wavelet na compactação dos dados, determinando assim as características a serem analisadas. Para a classificação dos indivíduos foi aplicada a proposta de Análise de Matrizes Esparsas e a proposta Eigenretina, criada nesta dissertação, embasada na Análise de Componentes Principais e em estudos anteriores sobre biometria e classificação de padrões.
Palavras-chave: Transformada Wavelet, Congruência de Fase, Processamento de Imagens, Classificação de Formas, Análise de Componentes Principais.
Aluno(a): Marlize Rizzi
Título: APLICAÇÃO DO MÉTODO ENXAME DE PARTÍCULAS NA OTIMIZAÇÃO DE MODELOS DE REGRESSÃO MULTIVARIADA APLICADOS NA QUANTIFICAÇÃO DAS MISTURAS DE BIODIESEL/ÓLEO/DIESEL
Trabalho Completo
Defesa: 31 de março de 2008
Banca Examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Marco Flôres Ferrão (Co-orientador), Prof. Dr. Adilson Ben da Costa (UNISC), Prof. Dr. Luciano Marder (UNISC) e Prof. Dr. Dimitrios Samios (UFRGS)
Resumo: A substituição gradativa dos produtos derivados de fontes não renováveis, por produtos de origem renováveis, vem sendo mundialmente discutida, especialmente quanto aos combustíveis. No Brasil, o governo oficializou a mistura biodiesel/diesel nos percentuais obrigatórios de 2% a partir de 2008. Considerando a necessidade de monitoramento da qualidade desta mistura, esta dissertação propõe o estudo e o uso do método enxame de partículas (Particle Swarm Optimization – PSO), juntamente com a técnica de regressão multivariada de mínimos quadrados parciais por intervalos (iPLS), visando constituir um algoritmo híbrido capaz de selecionar variáveis mais representativas do constituinte a ser quantificado, buscando gerar modelos de regressão mais robustos. Nesta pesquisa efetuou-se a quantificação de biodiesel, do óleo vegetal e do óleo diesel, utilizando toda a região espectral das misturas, as regiões espectrais sugeridas pela proposta de norma ABNT e as regiões escolhidas pelos algoritmos híbridos. Na quantificação do biodiesel o menor erro de previsão obtido foi através do método híbrido, sendo este erro 61,54% menor que o erro encontrado pelas regiões sugeridas pela proposta de norma ABNT e, 26,72 % menor que o erro encontrado utilizando toda a região espectral das misturas. Já, na quantificação do óleo vegetal o menor erro de previsão, obtido também foi pelo método híbrido, ficando 27,64% menor do que o erro encontrado pelas regiões sugeridas pela proposta de norma ABNT e, 38,62% menor do que erro encontrado utilizando toda a região espectral das misturas. Porém na quantificação do óleo diesel os métodos apresentaram desempenhos semelhantes. Com base nestes resultados, pode-se concluir que a utilização do método enxame de partículas juntamente com o método iPLS, foi capaz de otimizar as soluções, selecionando variáveis do espectro para construção de modelos mais robustos.
Palavras-chave: enxame de partículas, regressão por mínimos quadrados parciais, biodiesel, otimização combinatoria, espectroscopia no infravermelho.
Aluno(a): Fabio Rocha de Lima
Título: ESTUDO E IMPLEMENTAÇÃO DE UM CLASSIFICADOR DE TAMANHO ÚTIL DE MADEIRA SERRADA ATRAVÉS DE TÉCNICAS DE PROCESSAMENTO DIGITAL DE IMAGENS
Trabalho Completo
Defesa: 04 de julho de 2008
Banca Examinadora: Prof. Dr. Rolf Fredi Molz (Orientador), Prof. Dr. Marco Flôres Ferrão (UNISC) e Prof. Dr. Eugênio Oliveira Simonetto (UDESC)
Resumo: O problema de classificação de tamanho útil de madeira serrada é antigo na indústria de fabricação de molduras e consiste em encontrar a área que pode ser utilizada para fabricação de molduras. O problema é de fácil entendimento, porém é considerado de difícil solução. Muitas técnicas foram utilizadas pelas indústrias, muitas dessas abandonadas, poucas utilizadas, sendo que a maioria com a ajuda de visão computacional e humana em conjunto. Este trabalho propõe a utilização de visão computacional para a classificação da área útil através da captura e processamento de imagens de peças que recebem projeções de lasers em um ângulo de 45% sobre as mesmas. Muitas técnicas foram utilizadas nesta automação industrial, entre elas se destaca a morfologia matemática Essa técnica garante que no local onde os lasers são projetados, os mesmos mudem de direção ou desapareçam no caso de existir alguma falha na peça, podendo assim ser medido o tamanho útil de cada um dos produtos. Esse sistema proposto apresentou melhor resultados do que o sistema utilizado atualmente pela indústria de fabricação de molduras, podendo-se comprovar através de simulação das duas técnicas, que foi gerado uma otimização do processo.
Palavras-chave: Visão Computacional, Processamento de Imagens, Otimização de Processos, Morfologia Matemática, Automação Industrial.
Aluno(a): Carlos Eduardo Lopes Magarinos de Souza Leão
Título: AVALIAÇÃO E ANÁLISE DA APLICAÇÃO DE REDES NEURAIS E DO ALGORITMO DO ENXAME DE PARTÍCULAS NA MODELAGEM E OTIMIZAÇÃO DO PROCESSO DE POLIMERIZAÇÃO
Trabalho Completo
Defesa: 04 de julho de 2008
Banca Examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Geraldo Lopes Crossetti (Co-orientador), Prof. Dr. Marco Flôres Ferrão (UNISC) e Prof. Dr. Eugênio Oliveira Simonetto (UDESC)
Resumo: Os polímeros possuem uma grande importância econômica na indústria atual. Para o desenvolvimento de novas tecnologias que os empreguem, é necessário que o estudo dos polímeros, bem como o de seus processos de produção, sejam mais eficientes e viáveis economicamente, e que também permitam o desenvolvimento de novos polímeros com as características específicas que são demandadas pela indústria. O presente trabalho propõe um modelo para o desenvolvimento de novos polímeros, que possui duas características: baixo custo e flexibilidade. O modelo foi estabelecido através do desenvolvimento de uma rede neural, adequadamente treinada e preparada, utilizando como função-objetivo o algoritmo “enxame de partículas”. A partir desta rede neural, foi estabelecido um modelo de simulador cuja utilização permite identificar parâmetros que sejam considerados adequados para a otimização das reações no processo de produção de polímeros.
Palavras-chave: Polímeros. Rede neural. Enxame de partículas. Modelo. Otimização. Processos.
Aluno(a): Maria Aracy Machado Goulart
Título: WORKFLOW BASEADO NO CONHECIMENTO COMO MODELO DE ORGANIZAÇÃO DE UMA LINHA DE PRODUÇÃO E DE APOIO A DECISÕES ESTRATÉGICAS DE UMA EMPRESA DE CONFECÇÃO
Trabalho Completo
Defesa: 06 de outubro de 2008
Banca Examinadora: Profª. Dra. Rejane Frozza (Orientadora), Prof. Dr. João Carlos Furtado (UNISC), Profª. Dra. Raquel Janissek-Muniz (UFRGS)
Resumo: A organização e a tomada de decisão eficaz em uma empresa de pequeno porte são um diferencial organizacional e estratégico importante no ramo de confecções, onde a alta competitividade e o acesso restrito aos produtos disponíveis no mercado, destinados à organização das empresas, são um fato.
O desenvolvimento de um modelo workflow baseado no conhecimento dos funcionários e a disponibilização de uma base de dados, com problemas ocorridos e soluções propostas, são fatores importantes em uma empresa para a organização do fluxo de produção, a fim de auxiliá-la no processo de tomada de decisões estratégicas para o seu melhor empenho no mercado.
Esse trabalho apresenta um estudo de caso sobre o desenvolvimento e implantação de um modelo específico de workflow baseado no conhecimento com algumas características dos modelos ad hoc e administrativo, para uma empresa do ramo de confecções. O seu objetivo é apresentar um modelo workflow baseado no conhecimento, que transforme processos passivos em ativos, organize a linha de produção e apóie o processo de tomada de decisão dessa empresa. Para o seu desenvolvimento, foram estudados os principais modelos de produção, os modelos de workflow e utilizada a técnica de raciocínio baseada em casos (RBC) para obtenção do conhecimento especialista dos funcionários da empresa.
Palavras-chave: Sistema workflow baseado no conhecimento, sistema de apoio à tomada de decisão estratégica, técnica de raciocínio baseado em casos e modelos de produção.
Aluno(a): Viviane Muller
Título: OTIMIZAÇÃO DE LAYOUTS INDUSTRIAIS ATRAVÉS DO MÉTODO ENXAME DE PARTÍCULAS
Trabalho completo
Defesa: 09 de março de 2007
Banca examinadora: Prof. Dr. João Carlos Furtado (Orientador), Prof. Dr. Rafael Ramos dos Santos (Co-orientador), Prof. Dr. Geraldo Lopes Crossetti (UNISC) e Prof. Dr. Denis Borenstein (UFRGS).
Resumo: O problema de layout de facilidades é antigo e consiste, basicamente, em encontrar a melhor forma de dispor as facilidades (departamentos, máquinas, etc.) dentro de um campo de aplicação (indústria, hospital, banco, etc.). Embora o problema seja fácil de entender, a sua resolução é difícil devido à complexidade computacional. Diferentes métodos foram empregados na sua resolução e continua-se a busca por métodos mais eficientes devido a importância científica e econômica. Este trabalho propõe o uso do método Enxame de Partículas (Particle Swarm Optimization - PSO) na otimização do problema de layout. Enxame de Partículas é uma heurística evolutiva baseada em população (enxame), formada por indivíduos (partículas), cuja evolução se dá por meio da velocidade. É um algoritmo de conceito simples, fácil implementação, robustez para controlar parâmetros e eficiência computacional durante o processo de otimização. Cada partícula possui uma velocidade que permite a ela percorrer o espaço de soluções e uma posição nesse espaço. A cada iteração, e para cada partícula, a velocidade é atualizada de acordo com a velocidade anterior, somada à parte cognitiva da fórmula, que representa o conhecimento, e à parte social, que representa a colaboração entre as partículas. A nova posição da partícula é determinada pela soma da sua posição atual e a nova velocidade. Este trabalho apresenta duas abordagens, desenvolvidas a partir do algoritmo enxame de partículas original, para resolver o problema de layout. A segunda abordagem apresentou melhores resultados e, comparando-se com outros resultados encontrados na literatura, pode-se comprovar a eficiência do método Enxame de Partículas para o problema de layout, para todas as instâncias testadas.
Palavras-chave: Problema de layout de facilidades, Enxame de Partículas, modelo Attractor-Repeller, otimização.
Aluno(a): Rafael Guedes de Azevedo
Título: MELHORIA DO FORNEAMENTO DE BISCOITOS EM FORNO À LENHA COM PROCESSO EM BATELADA
Trabalho completo
Defesa: 29 de março de 2007
Banca examinadora: Prof. Dr. Geraldo Lopes Crossetti (Orientador), Profª. Dra. Liane Mählmann Kipper (UNISC) e Prof. Dr. Djalma Dias da Silveira (UFSM).
Resumo: A satisfação do consumidor é uma meta a ser alcançada pelas empresas, onde a variação de padrão no produto é uma das principais causas de insatisfação e todas as condições que aumentam o custo tornam o produto menos competitivo. O presente trabalho teve como objetivo a otimização do forneamento de biscoitos em forno à lenha com processo em batelada. Nas primeiras produções os biscoitos apresentavam muita variação de cor e os índices de perdas estavam em torno de 7,2%. As principais não conformidades foram avaliadas com o uso do diagrama de Pareto e foi identificado como mais relevante o problema de forneamento. As causas principais das não conformidades foram identificadas, avaliadas e tratadas através do método “QC Story”. Várias medidas corretivas foram implementadas com sucesso, entre elas a padronização do processo de forneamento, com enfoque na carga e no momento de abastecimento do combustível e a definição da temperatura de início de forneamento. Outras medidas foram implementadas visando a uma melhor distribuição de calor dentro do forno, que incluiu o arranjo das bandejas no carro, eliminação de biscoitos mais grossos antes do assamento, a distribuição dos biscoitos nas bandejas e a alteração das dimensões das bandejas. Com o processo padronizado houve uma redução do nível de perdas para valores entre 0,4 a 0,7% e uma melhor uniformização da cor dos biscoitos assados. Também foram coletados dados para a confecção da curva de forneamento real que apresenta-se diferente da curva de forneamento para processos contínuos obtida por meio de dados apresentados na literatura. De posse da curva de forneamento, é possível prever o tempo necessário para o forneamento em função da temperatura do forno.
Palavras-chave: Biscoito, forneamento, qualidade, análise de problemas.
Aluno(a): Gustavo Post Sabin
Título: OTIMIZAÇÃO DE MODELOS DE REGRESSÃO MULTIVARIADOS EMPREGANDO MÉTODOS DE SELEÇÃO DE VARIÁVEIS
Trabalho completo
Defesa: 30 de março de 2007
Banca examinadora: Prof. Dr. Marco Flôres Ferrão (Orientador), Prof. Dr. João Carlos Furtado (Co-orientador), Prof. Dr. Rolf Fredi Molz (UNISC) e Prof. Dr. Jarbas José Rodrigues Rohwedder (UNICAMP).
Resumo: Há um grande aumento na utilização de técnicas de espectroscopia no infravermelho para análises químicas na indústria, devido à rapidez, baixo custo e mantém a integridade das amostras neste tipo de análise. Com isso, é desejável um estudo de técnicas de obtenção de espectros no infravermelho, de regressão multivariadas e de métodos de seleção de variáveis. Esta dissertação tem como objetivo o estudo e implementação de um algoritmo genético, aliado a técnica de regressão multivariada de mínimos quadrados parciais por intervalo (iPLS), capazes de selecionar as variáveis mais pertinentes a propriedade que se deseja medir e assim criar modelos de regressão multivariados mais robustos. Nesta pesquisa efetuou-se a determinação de hidroxilas de polióis de óleo de soja, onde os resultados obtidos foram 14,97% menores em relação ao erro de predição e 15,63% menores em relação ao erro médio percentual dos valores calculados para as amostras de predição em comparação com os resultados encontrados através do método iPLS. Também se fez a determinação de cloridrato de propranolol em comprimidos, onde os resultados obtidos foram 76,1% menores em relação ao erro de predição e 73,99% menores em relação ao erro médio percentual dos valores calculados para as amostras de predição em comparação com os resultados encontrados através do método iPLS. Observando tais valores, pode-se concluir que a utilização de algoritmos genéticos conjuntamente com o método iPLS foi capaz de otimizar as soluções, selecionando de forma eficiente as variáveis espectrais envolvidas, encontrando modelos mais preditivos e robustos.
Palavras-chave: algoritmos genéticos, mínimos quadrados parciais por intervalo, otimização combinatorial, métodos heurísticos, espectroscopia no infravermelho.
Aluno(a): Sílvia Letícia Pozzebon Wermuth
Título: MODELAGEM MATEMÁTICA E COMPUTACIONAL DE UM SISTEMA DE APOIO À DECISÃO NA INDÚSTRIA
Trabalho completo
Defesa: 03 de abril de 2007
Banca examinadora: Profª. Dra. Rejane Frozza (Orientadora), Prof. Dr. Rubén Edgardo Panta Pazos (Co-orientador), Prof. Dr. João Carlos Furtado (UNISC) e Profª. Dra. Adriane Prisco Petry (UFRGS).
Resumo: Este trabalho relata o desenvolvimento de um sistema computacional de apoio à decisão baseado em conhecimento e a modelagem matemática para comprovar os resultados obtidos. O sistema desenvolvido define o cronograma de produção da Gráfica X da Empresa Z, a fim de minimizar o tempo de setup (tempo necessário, em cada produção, para realizar a troca das variáveis). O objetivo é aproveitar ao máximo as mesmas variáveis de uma produção para outra, diminuindo o número de trocas e, conseqüentemente, o tempo de setup. Cada produto possui quatro variáveis: faca, cilindros, cores e papel, as quais são utilizadas por uma máquina em cada produção. O sistema desenvolvido foi implantado na Empresa Z e utilizado pelo especialista humano, a fim de auxiliá-lo na tomada de decisão relativa ao próximo produto a ser produzido.
Palavras-chave: Sistema de apoio à decisão baseado em conhecimento; Sistema especialista; Ferramenta Expert SINTA; Distância Euclidiana; Tempo de setup.
Aluno(a): Luciana Scapini
Título: AVALIAÇÃO DO DESEMPENHO DA OSMOSE REVERSA E DA TROCA IÔNICA PARA TRATAMENTO DE EFLUENTE DE CURTUME (AIMORÉ COUROS LTDA – ENCANTADO) VISANDO A REUTILIZAÇÃO DA ÁGUA
Trabalho completo
Defesa: 04 de abril de 2007
Banca examinadora: Prof. Dr. Marco Flôres Ferrão (Orientador), Prof. Dr. Diosnel Antônio Rodríguez López (Co-orientador), Prof. Dr. Ênio Leandro Machado (UNISC) e Profª. Dra. Annelise Engel Gerbase (UFRGS).
Resumo: O presente trabalho objetivou realizar um estudo de caso sobre duas formas de tratamento para a reutilização dos efluentes de uma indústria curtidora - Aimoré Couros Ltda - por meio do uso de um sistema de polimento final dos efluentes. Ao analisar o processo produtivo da Empresa, Aimoré Couros Ltda – Encantado/RS foi constatada a grande quantidade de água gasta no mesmo. A fim de minimizar este desperdício, buscou-se adaptar uma metodologia onde os efluentes passaram por um processo de redução dos parâmetros ou indícios de poluição. Para isto, dois métodos de desmineralização ou dessalinização foram pesquisados, Troca Iônica e Osmose Reversa de modo a identificar aquele que apresentasse a maior eficácia na redução destes contaminantes. Testando, os dois métodos foram satisfatórios, porém a Osmose Reversa apresentou maior eficiência reduzindo teores em uma margem acima de 70% sendo que alguns índices como Cromo, DBO5, Sólidos Suspensos reduziram aproximadamente 100%. Enquanto que a Troca Iônica teve bons resultados também deixando a DBO5 em não detectada ou seja uma redução de aproximadamente 100% e o restante dos contaminantes com reduções acima de 40%.
Palavras-chave: osmose reversa; troca iônica; curtume; reaproveitamento de efluente industrial.
Aluno(a): Germano Fenner
Título: APLICAÇÃO DE WAVELETS NO TRATAMENTO DE RUÍDOS
Defesa: 26 de abril de 2007
Banca examinadora: Prof. Dr. Rubén Edgardo Panta Pazos (Orientador), Prof. Dr. Marco Flôres Ferrão (UNISC), Prof. Dr. Manuel José Malasquez Negron (UNISC) e Prof. Dr. Sergio Viçosa Möller (UFRGS).
Resumo: O propósito deste trabalho é estudar e experimentar os métodos para a redução de barulhos, especialmente os acasos em sinais ressonantes com o uso do wavelets. O trabalho aqui apresentou uma metodologia para a redução de barulho nos sinais ressonantes por um processo que combina as técnicas compactando que transformam um wavelet discreto, um algoritmo de limiar, e a reconstrução do sinal que transforma isto com um wavelet discreto inverso. Este método faz parte de um esboço de algumas fases: tratamento experimental, matemático por wavelets e a reconstrução do sinal com o barulho. O barulho é uma interferência desagradável que torce a fonte ressonante, e este problema consiste na análise de três fatores que são a freqüência, a intensidade e o emblema do som. Como wavelets soluções presentes para a eliminação parcial de barulhos em sinais em uma e duas dimensões. A partir do momento que o som é transformado em um sinal digital isto pode ser aplicado transformando o wavelet discreto dele como método reduzir ou eliminar o total ou parcial do barulho no sinal ressonante. O barulho pode ser eliminado e dependendo do comportamento dele, pode ser aplicado outro tipo que transforma um wavelet discreto (neste trabalho Haar ou Daubechies) como a melhor ação desempenho é tida conforme o sinal de comportamento. O resultado obtido com este mecanismo é a eliminação em um tenor alto do barulho que existe no som com um computacional pequeno valido.
Palavras-chave: wavelet, barulho, sinal discreto, wavelet Haar, wavelet que Daubechies transformam.