Ghent University – iMinds – Multimedia Lab Master thesis subjects 2014 - 2015 The Machine-Understandable Book Supervisors: Tom De Nies and Miel Vander Sande Promoters: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Tom De Nies Keywords: books, cross-media, eBook, machine-understandable, Semantic Web, enrichment, Web Location: home, Zuiderpoort Problem definition: Publishers of digital books are struggling to convince their customers of the added value of digital books. Often, an eBook is simply a digitized version of the same book printed on paper. However, there is much more potential in digital books that remains to be unlocked. One of these aspects is the concept that a book cannot only be understood by humans, but also by machine agents, such as software or agents. This machine-understandability adds many advantages to digital books, such as the increased discoverability, but also the possibility to dynamically add or change content inside a book. Goal: The goal of this master’s thesis is to (semi-)automatically convert a regular book to a machineunderstandable one, as accurately as possible. This means that the student will have to become acquainted with several techniques in the Natural Language Processing domain, as well as master concepts of the Semantic Web, including annotation in RDFa and intelligent querying of triplified data. The eventual outcome of the thesis will be a working proof-of-concept software, that converts a book into machine-understandable form, and a demonstrator that showcases the advantages of this book, compared to the regular book. Additionally, an evaluation will be performed to measure the accuracy of the conversion. Automatic Newsworthiness Assessment of Journalistic Content Supervisors: Tom De Nies and Fréderic Godin Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Tom De Nies Keywords: assessment, journalism, news, Semantic Web, enrichment, Web Location: home, Zuiderpoort Problem definition: Journalists and news editors are currently faced with an information overload. Compared to one or two decades ago, they are required to process information from much more channels, including social media, news feeds, television, blogs, etc. However, they do not receive more time to process this information, on the contrary! Their audience, the consumers of news, expect news to be delivered nearinstantaneously, and accurately. This paradox leads to a significant need for services to aid journalists with selection of newsworthy sources, and assessment of the content they produce themselves. Goal: In this master’s thesis, the goal is to research which criteria determine the newsworthiness of a news article, and whether these can be assessed automatically. This means that the student will have the opportunity to work with concepts from the the following domains: Natural Language Processing, keyword and topic extraction, Semantic Web, machine-learning, classification, etc. Eventually, the result of the master’s thesis will be a proof-of-concept software and/or service, that allows the automatic assessment of the newsworthiness of a random news article. This proof-ofconcept will be evaluated objectively and subjectively. Objectively, the accuracy of the detection components will be tested, whereas subjectively, the automatic assessment will be compared to a human assessment, made by domain experts. Ontdekken en visualiseren van betekenisvolle verbanden tussen entiteiten in grote datasets. Begeleiders: Laurens De Vocht Promotoren: Erik Mannens en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Laurens De Vocht Trefwoorden: semantische analyse, linked data, zoektechnologie, heuristische pad optimalisatie, web services, Big Data Locatie: Zuiderpoort, thuis Probleemstelling: Om relevante, onrechtstreekse en niet voor de hand liggende verbanden te vinden tussen meerdere entiteiten in grote datasets hebben we betekenisvolle paden nodig. Het verband tussen de Golden Gate Bridge in San Francisco en de Eiffeltoren dat ze beiden toeristische trekpleisters zijn is beperkt relevant, al iets interessanter is dat Betrand Delano (politieker in Parijs) en Tom Ammiano (politieker in San Francisco) beide katholieken zijn. Dit is al een goed begin, toch het is al bijzonder indrukwekkend dat een algoritme dergelijk verband kan onthullen. Dit is mogelijk dankzij kennis uit datasets die semantisch beschreven en verbonden worden: linked data. Met deze techniek kan uiteindelijk, afhankelijk van de context en gebruiker, het pad gepersonaliseerd worden indien op voorhand ook gedefinieerd wordt welke soort verbanden en type resources doorslaggevend zijn. Doelstelling: In deze masterproef ga je je inwerken in de wereld van de zoektechnologie, semantisch web en Big Data, om met deze kennis te onderzoeken welk methodes kunnen bijdragen aan een systeem dat de betekenis van de verbanden tussen entiteiten in rekening brengt bij het zoeken. De bedoeling is om de resulterende verbanden op een effectieve manier weer te geven zodat gebruikers efficiënt relaties kunnen ontdekken in grote datasets. Interactive Storytelling with Big Data Supervisors: Laurens De Vocht en Miel Vander Sande Promoters: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Laurens De Vocht Keywords: Storytelling, Information Retrieval, Big Data, Linked Data, Pathfinding, User Interaction Location: home, Zuiderpoort Problem definition: The number of resources that are now available to users on the Web, is rapidly expanding. Although Big Data may be structured and even linked, the underlying structure still looks like a maze to most users. Relations and paths between those resources are thus not always easily discoverable, and rarely come with strong support for identifying, comparing and associating the ones that can be most beneficial to the user. Such tasks depend not only on the profile of the user, but also on the expertise they have already acquired, their history, their search goals, and the way resources relate in a coherent and effective story. You will investigate an approach to influence the generation of stories in real-time by a user. Each story can be seen as a useful/relevant re-combination of multiple associated paths between resources, for example: Trivia Finding / Personalized Story: DBpedia (Structured version of Wikipedia) Research 2.0: Recreate Events (Conferences) based on data of Web Collaboration Tools, Digital Libraries, Linked Open Data… Goal: In the master’s thesis the goal is to generate stories which are both relevant to the user and coherent. This includes an optimization on how the users intervene in the story, without violating any rules of the context in which it is applied (e.g. chosen topics, required resources). The outcome of this algorithm should be a framework so that users can find not trivial relations in a specific context and reveal semantic associations in Big Data. It is already possible to deliver simple stories such as: “Tell me about how am I connected to 'Mickey Mouse' ?” or “Tell me how 'Mickey Mouse' is connected to 'Paris' ?”. But this could be improved to answer more complicated questions like: “What is the most 'connected' person connecting 'Paris' and 'Washington DC' and why?”, “Tell me more about the World Wide Web Conference in 2012, what was presented there that is related to 'my' projects and interests (right now) and 'why'.” Realtime Analytics of Scholarly Communication via Web Collaboration Tools Supervisors: Laurens De Vocht Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Laurens De Vocht Keywords: Web 2.0, Research 2.0, Scholars, Web of Data, Collaboration Tools, Social Media Location: home, Zuiderpoort Problem definition: Publication repositories and online journals all have search engines to help scholars find interesting resources. However, these approaches are often ineffective, mostly because scholars: (i) only look-up resources based, at best, on their topics or keywords, not taking into account the specific context and the scholar's prole; (ii) are restricted to resources from a single origin. Of course, aggregators exist that index resources from multiple sources. The challenge is therefore in matching research needs and contexts to opportunities from multiple, heterogeneous sources. In other words, we should make the most of the wealth of resources for research through relating and matching their scholar prole with the online available resources, publications and other scholar's profiles. Goal: Combine streams of Web Collaboration Tools and Social Media such as Twitter or Mendeley to track scientific communication and align it with the Web of Data (e.g. COLINDA, DBLP, PubMed). This allows developing an efficient model and a useful environment for scholars. The environment needs enough incentives for the users to remain synchronized and interact with others. The scholar’s personal research library and preferences could be matched with the those of other users. This allows links to be made to social and research data beyond a single scholar’s scope. This should lead to more finegrained details facilitating scholars to obtain a more sophisticated selection and linking of contributed resources based on previous assessments and explored links. Interactive Exploration Workflow for Linked Data Supervisors: Laurens De Vocht and Anastasia Dimou Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Laurens De Vocht Keywords: Linked Data, Exploratory Search, Infromation Visualization, Interactivity, Discovery Location: home, Zuiderpoort Problem definition: Linking Open Data increases the Open Data potential as the data are semantically represented and interlinked among each other to describe a certain knowledge domain in a complementary way instead of offering fragmented parts of information. However, while more and more data are semantically represented and interlinked, non-Semantic Web experts do not have the means to discover and explore the data. Visual representation demonstrate multiple aspects of the data while controlling its views which is adequate for the LOD need to additionally reveal their links. Goal: A visual interactive exploration workflow that is data and schema agnostic so it can be easily transferable to other datasets. This workflow integrates different user-centric views on the same dataset to highlight different aspects. All these views need to be aligned according to a workflow optimized for the target user. Multiple Coordinate views based on aggregated data should be applied using the same methodology on a completely different dataset. This will impact the workflow. Pre-analysis of Big Data graphs to generate visual abstractions Supervisors: Anastasia Dimou, Laurens De Vocht, Miel Vander Sande Promoters: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Anastasia Dimou Keywords: Location: home, Zuiderpoort Problem definition: Linking Open Data increases the Open Data potential as the data are semantically represented and interlinked among each other to describe diverse knowledge domains in a complementary way. However, non-Semantic Web experts do not have the means to discover and explore the published data. Visual graph representations demonstrate multiple aspects of the data but do not scale well for large datasets, ending up to very dense and large graphs that are not comprehensive for the end users. In order to deal with this problem, most of the current solutions rely on visualizing hierarchical structures. Converting a graph to a tree representation is not ideal as most of the semantics are lost. Goal: In this master’s thesis, the goal is to investigate the analysis of a certain dataset to automatically identify its data structure. Considering its data structure, the resources that are interesting to be visualised and their relations to other resources will be identified to be demonstrated. But in order to reduce the graph’s complexity, the concepts might also need to be grouped and aggregated. Turning Big Data to a Semantic Gold Mine Supervisors: Anastasia Dimou, Miel Vander Sande, Laurens De Vocht Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Anastasia Dimou Keywords: Location: home, Zuiderpoort Problem definition: Despite the significant number of existing tools, incorporating data from multiple sources and different formats into the Linked Open Data cloud remains complicated. In real-world situations, multiple sources of different formats are part of multiple domains. The processing level adds further complexity as it demands efficient planning of processing to support multiple, diverse and large files. Goal: In this thesis, you research mapping-driven approaches where the processing of input data is driven by the mapping document. You investigate how to perform an efficient execution plan that arranges the execution order of the mappings. The focus is on distributed and parallel processing of the extracts of the sources to be mapped in a streaming approach for optimal performance with Big Data. Normalization and Enrichment of HTML for machine-understandable websites Supervisors: Ben De Meester, Tom De Nies, Ruben Verborgh Promotor: Wesley De Neve en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ben De Meester Keywords: HTML5, CSS3, metadata, normalization, W3C Location: home, Zuiderpoort Problem definition: The web consists of an enormous amount of structured and unstructured data. Structured data can be used by machines to automatically retrieve and process data to increase their ease of use (think of the NMBS-apps and pizza.be-like websites). However, most data on the Web is currently still available in (unstructured) HTML. HTML is, unlike XML, a very ‘forgiving’ language concerning ending tags and hierarchy restrictions, which makes its parsing a lot more difficult. The splitting of structure and presentation using CSS allows for increased flexibility, but also makes it harder for machines to understand the individual HTML and CSS source. For example, an h1-tag can be styled as a paragraph and vice versa. The visual representation for the user is the same, but the interpretation of the actual HTML code is very different. Also, by using semantic ambiguous CSS class-names, machine interpretation becomes even harder. E.g., what is the semantic meaning of <p class=”title1”>, or even worse <p class=”style12”> ? Goal: The goal of this thesis is to devise and build a normalization algorithm for HTML and CSS. This normalization algorithm should be capable of losslessly form ill-formed, ambiguous HTML and CSS into fully compliant xHTML5 and CSS3 files with: a simplified stylesheet, maximally using the latest CSS3 specifications and CSS precedence rules HTML code where the structure tags follow the semantic of the contents as closely as possible, as provided by the W3C semantically meaningful styling properties. To ensure the algorithm is lossless, an evaluation algorithm is needed to check that the rendering of the original HTML page is identical to the normalized HTML page. A Proof checker for the Semantic Web Supervisors: Dörthe Arndt, Ruben Verborgh Promotoren: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Dörthe Arndt Keywords: N3Logic, proof, reasoning, semantic web Location: home, Zuiderpoort Problem definition: The Semantic Web enables computers to understand and reason about public data. There exists a huge number of reasoners which are able to draw conclusions based on common knowledge (f.e. Pellet, cwm or EYE). Some of them also provide proofs to clarify how they came to a certain result. But what is a proof? How can we be sure that a proof is correct? When do we trust it? Could they be lying? An independent checker is needed! Goal: With this thesis you will help to find a solution for this problem: You will get a better understanding of N3-logic, the logic used by reasoners such as EYE or cwm ((http://www.w3.org/2000/10/swap/doc/cwm.html, http://eulersharp.sourceforge.net/). You’ll learn what the current proof format of these reasoners looks like and how it could be improved. This knowledge will enable you to implement an independent proof checker for N3-proofs which can handle proofs written in the N3-proof ontology (http://www.w3.org/2000/10/swap/reason.n3). Editing the Web of Data by Visualizing it! Supervisors: Miel Vander Sande, Anastasia Dimou Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Miel Vander Sande Keywords: Location: home, Zuiderpoort Problem definition: The contents of the Web are moving to a more data-centric state. The data present in human-readable format on HTML pages is broken out of their silos and linked together to form one giant knowledge base. But how much data will we need to process in the future? Human consumption can be assisted by visualising data. Components like and charts are often used to present data in human consumable pieces. But what happens when we want to start editing this knowledge base? Can the power of visualisations also be applied to making changes, comments, additions, and corrections? Goal: In this thesis you dive into the world of visualisations, extracted from graph structured and semantically annotated data. The goal is to research a complete data lifecycle consisting of: data extraction from source - data visualisation - visual editing - feedback to source. You need to investigate how interactivity can be applied to existing visualisations to allow editing. Next, you look at how these changes are reflected to the data source. Finally, you look into the most efficient visualisations for editing data and how they can be improved. This is demonstrated in a rich Internet application using the latest Web technologies. From digital to print: closing the gap between digital and analog publishing Supervisors: Ben De Meester and Tom De Nies Promotor: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ben De Meester Keywords: EPUB3, Publishing, HTML5, CSS3, Typography Location: home, Zuiderpoort Problem definition: Until now, most publishers author a printed book, after which a digital book is built. This is a cumbersome and expensive process. To avoid this, platforms have arisen that enforce a ‘digital-first’ strategy, i.e., where books are authored directly to a digital format such as EPUB3. These books are then converted to a printed format afterwards. As the possibilities of digital books exceed those of a printed book, these digital books cannot be automatically converted from digital to print. For example, it would be very difficult to print an animated GIF? Can we retain the meaning of a video in a printed book, and how? Also, as digital books are basically Web pages with a dynamic layout, it is interesting to investigate how we can go from a dynamic Web page to a page-centric printing format, keeping the typographics that are used for print (line-height, kerning, hyphenation, etc.). Goal: In this thesis, a conversion method needs to be devised to go from an enriched digital book to an optimized printed book. Research is needed into the latest Web technologies (HTML5, CSS3) that are used to form a digital book, and the typographic requirements that are used for a printed book. Possible gaps between these Web technologies and typographic requirements need to be identified, and a conversion tool has to be built to automatically alleviate or even remove those gaps. Use of current visualization standards (CSS3) should be used as much as possible, and the fall-backs of interactive and multimedia features of a digital book should retain the semantic meaning of those interactive and multimedia features as closely as possible. In a demonstration, the shortcomings of Web technologies as opposed to printed media as well as their solutions should be visible. Also, the printed media should represent the interactive and multimedia features by providing a semantically meaningful textual representation. Parallellisatie van het (de)comprimeren van DNA-sequenties voor meerkernige processoren en/of GPUs Begeleiders: Tom Paridaens, Ruben Verhack, Promotoren: Wesley De Neve en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Tom Paridaens Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, parallele verwerking Locatie: Zuiderpoort, thuis Probleemstelling: Het menselijk genoom bestaat uit iets meer dan drie miljard basenparen. Ervan uitgaande dat ieder basenpaar met één byte wordt voorgesteld, heeft het menselijk genoom aldus een ongecomprimeerde grootte van ongeveer 2.8 gigabyte. Onder invloed van de Wet van Moore is de kostprijs voor het uitlezen van de volgorde van deze basenparen (Eng. DNA sequencing) gedurende de afgelopen jaren aanzienlijk gedaald. Op korte termijn verwacht men dat deze kostprijs onder de 1000 dollar zal duiken, en op lange termijn onder de 100 dollar. Echter, de snelheid waarmee de volgorde van basenparen kan worden uitgelezen overstijgt momenteel de snelheid waarmee deze sequenties van basenparen kunnen opgeslagen en geanalyseerd worden. Dit belemmert de ontwikkeling van nieuwe DNAgeoriënteerde toepassingen, zoals gepersonaliseerde geneeskunde en biometrische identificatie. Doelstelling: Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze masterproef is het de bedoeling om dit raamwerk te verbeteren op het vlak van zowel efficiëntie (snelheid en geheugengebruik) als effectiviteit (compressieratio). Hierbij kan bijvoorbeeld gedacht worden aan het parallelliseren van het ontwikkelde raamwerk, teneinde meerkernige processoren en/of GPUs te kunnen inzetten bij de compressie van DNA-sequenties. De hierdoor vrijgekomen rekentijd kan dan aangewend worden voor het verder uitbreiden van het betreffende raamwerk, met het oog op het bekomen van een hogere compressieratio binnen dezelfde verwerkingstijd. Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data. Compressie en stroming van DNA-sequenties in een gedistribueerde omgeving Begeleiders: Tom Paridaens Promotoren: Wesley De Neve en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Tom Paridaens Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, gedistribueerde verwerking, stroming Locatie: Zuiderpoort, thuis Probleemstelling: Onder invloed van de Wet van Moore is de kostprijs voor het uitlezen van de volgorde van de basenparen in DNA-sequenties (Eng. DNA sequencing) gedurende de afgelopen jaren aanzienlijk gedaald. Daardoor wordt deze technologie meer en meer gebruikt voor het samenstellen van omvangrijke databanken die onderzoekers bijvoorbeeld de mogelijkheid geven om de evolutie en verspreiding van organismen zoals salmonella te onderzoeken. De snelheid waarmee de volgorde van basenparen kan worden uitgelezen overstijgt echter momenteel de snelheid waarmee deze sequenties van basenparen kunnen opgeslagen en geanalyseerd worden. Bovendien kan de transmissie van deze sequenties zo lang duren dat er vaak nog wordt teruggegrepen naar het verschepen van harde schijven. Hierdoor loopt onderzoek soms nodeloze vertragingen op, alsook de bestrijding van bepaalde epidemieën. Doelstelling: Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze masterproef is het de bedoeling om dit raamwerk uit te breiden met ondersteuning voor het comprimeren van individuele reads (korte DNA-sequenties, vaak met een lengte van enkele tientallen tot enkele honderdtallen basenparen), en voor het daaropvolgend versturen van deze gecomprimeerde individuele reads over een netwerk, teneinde genoomsequenties als een continue stroom van data te kunnen verwerken in een gedistribueerde omgeving. Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data. Beveiliging van DNA-sequenties tegen onbevoegde toegang Begeleiders: Tom Paridaens, Glenn Van Wallendael Promotoren: Wesley De Neve en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Tom Paridaens Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, gedistribueerde verwerking, encryptie, DRM Locatie: Zuiderpoort, thuis Probleemstelling: Onder invloed van de Wet van Moore is de kostprijs voor het uitlezen van de volgorde van de basenparen in DNA-sequenties (Eng. DNA sequencing) gedurende de afgelopen jaren aanzienlijk gedaald. Daardoor wordt deze technologie meer en meer gebruikt voor medisch onderzoek. Hierbij is het beschermen van de privacy van de patiënt heel belangrijk. Encryptie en DRM zijn dan ook onmisbaar. Doelstelling: Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze masterproef is het de bedoeling om dit raamwerk uit te breiden met ondersteuning voor encryptie en toegangsbeveiliging, teneinde de gevoelige data te beschermen en toegang tot deze data te beheren. Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data. Detectie en localisatie van bosbranden met behulp van sociale media Begeleiders: Viktor Slavkovikj en Steven Verstockt Promotoren: Peter Lambert en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Viktor Slavkovikj Trefwoorden: sociale media, branddetectie Locatie: Zuiderpoort, thuis Probleemstelling: De toenemende populariteit van sociale netwerkdiensten, zoals Facebook en Twitter, leiden tot nieuwe mogelijkheden voor sociale netwerken. Door het toenemend aantal gebruikers kan de informatie geproduceerd via sociale netwerkdiensten een waardevolle databron zijn voor de preventie, controle en localizatie van grootschalige natuurrampen. Bosbranden zijn een voorbeeld van een dergelijke grootschalige natuurramp, waarbij vroege detectie noodzakelijk is om een effectieve localizatie mogelijk te maken. Socale media kunnen worden gebruikt als een sensornetwerk voor vroege detectie van dergelijke branden. Doelstelling: Het doel van deze masterproef is het gebruik maken van sociale media voor de detectie van bosbranden. De student zal eerst een literatuurstudie voeren rond de meest recente ontwikkelingen rond het gebruik van sociale media voor het uitsturen van vroege waarschuwingen en het verschaffen van informatie voor interventieteams. De focus van het onderzoek ligt op het evalueren van bestaande technieken en het voorstellen van nieuwe ideeën voor de detectie en localisatie van bosbranden gebruik makend van sociale netwerken. Een mogelijke onderzoekspiste is bijvoorbeeld het bepalen van de vorm en oppervlakte van een vuurzone met behulp van de locaties van waarop Twitterberichten gerelateerd aan het incident zijn verstuurd. Een ander voorbeeld is de identificatie van de gebieden die het ergst getroffen zijn door de ramp en de coördinatie van de hulpverlening. Figure : Twitcident – Fighting fire with information from social web streams. Multimodale herkenning van menselijke bewegingen Begeleiders: Viktor Slavkovikj en Steven Verstockt Promotoren: Peter Lambert en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Viktor Slavkovikj Trefwoorden: multimodal analysis, bewegingsherkenning Locatie: Zuiderpoort, thuis Probleemstelling: Automatische videobewaking bestaat uit het observeren van personen en/of objecten die bewegen in een niet-triviale omgeving, met detectie, opvolging, herkenning, classificatie, bewegingsanalyse en activiteitsherkenning van deze aanwezige personen en/of objecten als doel. Verschillende types videobewakingssystemen worden beïnvloed door factoren als ruis, occlusies, veranderingen in lichtintensiteit, etc., die de globale performantie van het systeem doen afnemen. In het verleden maakten videobewakingssystemen enkel gebruik van één enkel type sensor (meestal een videocamera in het visuele domein). Meer en meer wordt het echter, door de snelle toename van goedkope sensoren, mogelijk om meerdere en/of verschillende types sensoren te gebruiken om de begrenzingen van huidige bewakingssystemen te overkomen. Doelstelling: Het doel van deze masterproef is de automatische herkenning van menselijke activiteit met behulp van multimodale analyse. In het bijzonder ligt de focus van het onderzoek op de herkenning van voorgedefinieerde menselijke acties, zoals zwaaien met de arm. De student zal eerst een literatuurstudie voeren rond de meest recente ontwikkelingen in dit domein. Hierna zal een methode worden onworpen en ontwikkeld die de herkenning van verschillende acties gebruik makend van een subset van verschillende sensoren mogelijk maakt. Een dataset met opgenomen menselijke bewegingen, bestaande uit videosequenties van verschillende standpunten, data afkomstig van accelerometers, audiosequenties en diepteinformatie, zal hiervoor ter beschikking worden gesteld. Rate-distortion-complexity modeling for the HEVC decoder under energy constraints of receivers Supervisors: Luong Pham Van and Glenn Van Wallendael Promotor: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Luong Pham Van Keywords: HEVC, power-aware video coding, decoder complexity Location: home, Zuiderpoort (optional: presentation at the TU Berlin) Problem description: In real-life applications, video streams might be decoded by portable devices such as mobile phones, tablets, … where the devices have time-varying battery life or different processing capacities. Under such a scenario, the reduction in decoding complexity to adapt to the capacity of receivers becomes a critical issue. One possible solution is to allow the encoder to generate a decoder-friendly bit stream. The new High Efficiency Video Coding (HEVC) standard is expected to be widely used in many multimedia applications thanks to its high compression efficiency compared with H.264/AVC. To achieve this high coding performance, HEVC introduces several new coding techniques resulting in extremely high complexity of both the encoder and decoder. To incorporate this standard in real-life applications, power-aware hardware modules should be investigated and included. Goal: The purpose of this work is to study and propose a rate-distortion-complexity model using statistical and machine learning techniques for HEVC. The proposed model should be evaluated for its impact on the compression ratio of the bit stream. Ideally, this model is included in the encoder to select the optimal coding mode, such that a trade-off between rate-distortion and decoding complexity is achieved with a minimal impact on the compression ratio. Image compression using machine learning techniques with classification in the compressed domain Supervisors: Ruben Verhack, Baptist Vandersmissen Promotor: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: image compression, image coding, machine learning, classification Location: home, Zuiderpoort (optional: presentation at the TU Berlin) Problem description: As massive amount of visual materials are captured and stored in visual information systems, effective and efficient image indexing and manipulation techniques are required. Most visual materials in visual information systems are stored in some compressed forms. Therefore, it is desirable to explore image technologies for feature extraction and image manipulation in the compressed domain. Although no compression algorithm is built with image classification in mind! During the last 20 years, powerful techniques evolved in the machine learning community around the non-linear support vector machine theory for classification and regression of signals. The immense success of non-linear support vector classification in general is due to the use of a non-linear transform of the signals into a higher dimension feature space. Non-linear regression is intimately related to the problem of non-linear prediction in signal theory, and thus highly relevant for predictive coding in general. This paves the way for complete new coding approaches. Goal: The idea is that the more an algorithm understands the content of the image the better the algorithm can compress the image. This understanding equals learning the structures in the image. Furthermore, these learned structures can also serve as a model for the image. This model can be used as an image descriptor for basic image classification. The goal in this master’s thesis is to validate the efficacy of the method described above. The first step is to implement (Matlab, Python or C/C++) a prototype of such an encoder/decoder for coding an image. Secondly, the goal is to explore how the model of the image, which was obtained during compression, can be used as an image descriptor and which requirements it fulfills. Evaluation of the system can be done using standard benchmarks. Color prediction in image coding using machine learning techniques Supervisors: Ruben Verhack, Baptist Vandersmissen Promotor: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: color prediction, image coding, machine learning Location: home, Zuiderpoort (optional: presentation at the TU Berlin) Problem description: Due to the massive amount of visual materials that are captured and stored nowadays, image compression stays an active field of research. It is well known that the human visual system (HVS) is much more sensitive towards changes in luminance values (bright/dark) than towards changes in color and this is easily exploited in color coding. Research has shown that it is beneficial to predict the color components of images from the luma values. During the last 20 years, powerful non-linear techniques evolved in the machine learning community around the non-linear support vector machine theory for classification and regression of signals. Nonlinear regression using Mercer kernels is intimately related to the problem of non-linear prediction in signal theory, and thus highly relevant for predictive coding in general. Numerous methods for incorporating color components into machine learning coding schemes are possible. Goal: The goal of this thesis is to extend a given luminance (gray-scale) image codec based on machine learning techniques to incorporate the color components. The idea is to exploit as much of the learned information as possible and to predict the color components as good as possible. The implementation can be done in Matlab, Python or C/C++. If necessary, acceleration on the GPU using NVIDIA CUDA can be performed. Lossy image coding with machine learning techniques Supervisors: Ruben Verhack Promotor: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: image coding, image compression, machine learning techniques, lossy compression Location: home, Zuiderpoort (optional: presentation at the TU Berlin) Problem description: Due to the massive amount of visual materials that are captured and stored nowadays, image compression stays an active field of research. During the last 20 years, powerful non-linear techniques evolved in the machine learning community around the non-linear support vector machine theory for classification and regression of signals. Non-linear regression is intimately related to the problem of non-linear prediction in signal theory, and thus highly relevant for predictive coding in general. Surprisingly, this path has only been recently started gaining attention. Our challenge is the exploration of non-linear statistical dependencies between amplitudes of image samples for reducing redundancy of the source prior to coding while modeling the signal. In simpler terms, using machine learning techniques, it is possible to extract the main structures in an image by learning the model of the image. The more understanding there is about the content of an image, the shorter it can be described, and thus coded. Goal: The goal in this master’s thesis is to develop a strategy for exploiting learned information from the images for coding purposes. This includes finding an underlying model of the image as a description and coding it efficiently. This should be done while keeping the characteristics of the human visual system (HVS) in mind. This complete new way of image coding provides many opportunities for different approaches. The implementation can be done in Matlab, Python or C/C++. If necessary, acceleration on the GPU using NVIDIA CUDA can be performed. Efficient transcoding from VP9 to HEVC Supervisors: Johan De Praeter, Glenn Van Wallendael Promotor: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: VP9, HEVC, video compression, transcoding Location: home, Zuiderpoort Problem description: The next generation of video compression standards offers better compression than its predecessors. However, two different standards are being pushed forward: VP9 and High Efficiency Video Coding (HEVC). These two standards will likely coexist in the future, which makes it important to provide compatibility between devices supporting the different standards. This compatibility can be achieved by transcoding a bitstream encoded with one standard to a bitstream compatible with the other. The simplest method for doing this consists of decoding the bitstream and re-encoding it with the other one standard. However, this process can be made more efficient, since there are some similarities between both standards. Goal: The goal of this master’s thesis is to reduce the complexity of transcoding from VP9 to HEVC while retaining good video quality. To achieve this, the student will have to get acquainted with the properties of both VP9 and HEVC to exploit similarities between both compression standards. The student gets to build on an existing transcoding framework written in Python, but can also directly make changes to the reference software of both video standards (VP9: http://www.webmproject.org/code/; HEVC: http://hevc.kw.bbc.co.uk/). Classification and detection of screen content for visually lossless transcoding in video compositions for HEVC Supervisors: Johan De Praeter and Thijs Vermeir Promotor: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: HEVC, video compression, transcoding, compositions, screen content Location: home, Zuiderpoort Problem description: Video sequences can either contain natural content, which is content captured by cameras, or screen content such as a screen capture of a desktop. In many cases, such as screen sharing during a video call, it is important to preserve the detail of this screen content to assure the readability of data. To do this, more bits can be allocated to the entire video sequence. However, in a composition of both natural and screen content, this would result in bits being wasted on the natural content. Moreover, depending on the type of screen content, the amount of bitrate increase to prevent annoying artifacts might differ. Therefore, it should be possible to detect several types of screen content in a composition. Goal: In this master’s thesis, the goal is to detect and classify different types on screen content, and to identify the minimal bitrate that should be allocated to prevent annoying artifacts to appear. In a second phase, the student will implement this bitrate allocation on transcoding of video compositions by building on an existing transcoding framework in Python and by making changes to the reference encoder of the HEVC video compression standard (http://hevc.kw.bbc.co.uk/). Machine learning models for efficient video transcoding Supervisors: Johan De Praeter, Robin Bailleul Promotor: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: video compression, transcoding, machine learning Location: home, Zuiderpoort Problem description: Videos are provided in all kinds of compression formats, resolutions and quality. To change the format, resolution or quality, the original bitstream can be decoded and then re-encoded with new parameters. However, this does not take into account information that was already in the original bitstream. A technique to take this information into account is machine learning. However, there exist many machine learning techniques, and the models they generate might not necessarily translate to good transcoding results. Goal: The goal of this master’s thesis is to examine the performance of different machine learning techniques on different types of video transcoding. The relationship between probabilities generated by a model and the final performance of the transcoder is also examined. In this thesis, the student can build upon an existing transcoding framework in Python. Grid-based real-time multi-agent path planning for crowds in dynamic environments Supervisors: Ignace Saenen Promotor: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1-2 Number of theses: 1 Contact: Ruben Verhack Keywords: Multi-agent, path planning, caching, parallel implementation Location: home, Zuiderpoort Description: In various applications and computer games, search algorithms are at the heart of decision making structures and modules. Optimal performance in this context is often of high importance. Given a number of topological properties (e.g. using tile grids, hexagonal grids, …) search algorithms can be accelerated algorithmically. Avoiding dynamic obstacles is an important challenge that grows when the number of agents is high. In a real-time context, the exact number of required searches is often unknown beforehand, and the time it takes to calculate a path is proportional to the length of the path. Additionally, re-calculating paths often can lead to Ping-Pong effects that are undesirable and unnatural. Goal: After reviewing a number of existing grid-based search algorithms, this master’s thesis will focus on constructing and implementing an algorithm that allows thousands of agents to move collision-free through indoor and outdoor environments, e.g. by exchanging or reusing partial search results or using a global path solver. It is important that the maximum length of an agent’s path can be controlled, such that heterogeneous group behavior can be simulated. Apart from describing the algorithm, performance and memory complexity, the proposed solution must be implemented and evaluated at Multimedia Lab using existing benchmark framework and software. Next to a single threaded CPU implementation, a parallel hardware implementation is optional for 1 student and mandatory for 2. Together with Multimedia Lab, the student(s) look at benchmarking for search-space exploration speed (node expansions), path correctness, and optimality and a number of path-smoothness criteria, and evaluate implementation specific constraints. Reference: http://gamma.cs.unc.edu/research/crowds/ Adaptive collision meshes for dynamic point cloud data sets in Unity Supervisors: Ignace Saenen Promotor: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verhack Keywords: Mesh generation, mesh simplification, mesh tessellation, collision, nav-mesh Location: home, Zuiderpoort Description: With the advent of ubiquitous computing and video recording, the world around us increasingly becomes a constantly measured and recorded space, revealing the changes that occur in the real world also on a digital level. In order to quickly adapt to the dynamically changing environments, roadmaps need to reflect big changes fast in order to help aid-workers to confidently navigate terrain in crisis situations. Goal: The goal of this master’s thesis is to explore methods and architecture to construct and adaptively reflect changes in point cloud data as it is streamed in robustly. Different sets of terrain requirements have to be observed for different simultaneously generated meshes (e.g.; walkable / able to drive a vehicle of size X / amphibious / reachable by air lift only / totally blocked, etc.. ) Apart from describing the algorithm, performance and memory complexity, the proposed solution must be implemented and evaluated in Unity, making use of existing data formats and libraries. Automatic Product Recognition in YouTube Videos and Subsequent Linkage to eBay Using Deep Learning Techniques Supervisors: Pieter Delbeke, Baptist Vandersmissen, Abhineshwar Tomar Promotor: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 2 Number of theses: 1 Contact: Baptist Vandersmissen Keywords: artificial intelligence, deep learning, machine learning, product recognition, video analysis Location: home, Zuiderpoort Problem definition: Automatic product recognition involves the detection and recognition of different products in an image or video. This is mostly done based on the visual characteristics of these products. Automatic product recognition can for example be used for second screen advertising based on content displayed on a television screen or for automatically showing buying options based on products appearing in online videos. This is especially useful for social networking sites such as YouTube and Instagram, which contain substantial amounts of content related to products or brands, thus making it possible to generate extra revenue without displaying advertisements that are (often) irrelevant. However, recognizing a product in a video is a nontrivial problem, for instance requiring the use of fine-grained features in order to be able to recognize a specific product. Goal: In this master’s thesis, we will focus on using deep learning techniques to detect high-level features representing a product, leveraging raw visual content and textual transcriptions (metadata) originating from YouTube. The student will start by reviewing the current state-of-the-art regarding product recognition and will investigate the use of deep learning techniques to learn product representations. Deep learning techniques have recently shown to outperform several other machine learning techniques and are therefore currently adopted by big internet companies such as Facebook, Google, and Netflix. The ultimate goal of this master’s thesis is to develop and test a framework that can automatically extract products from YouTube videos and that can subsequently link the products found with articles posted on eBay. This master’s thesis will be carried out in close collaboration with Zentrick, a Ghentbased startup. About Zentrick: Zentrick offers publishers an interactive video platform to increase engagement, enhance related content re-marketing and improve call to action conversion rates. The Zentrick platform provides an integrated set of services including an interactive video development platform, multi-platform/device content delivery capabilities, a rich development studio and a robust analytics suite. Categorization of Short-form Mobile Video Using Deep Learning Techniques Supervisors: Baptist Vandersmissen, Fréderic Godin Promoters: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Baptist Vandersmissen Keywords: categorization, deep learning, Instagram, short-form video, video analysis, Vine Location: home, Zuiderpoort Problem definition: The ubiquitous presence of smartphones in our daily life on the one hand and the emergence of social media platforms specifically tailored for short-form video on the other hand led to the creation of enormous amounts of video content. This content may describe activities in our daily lives, as well as noteworthy happenings or groundbreaking events. However, the lack of means to easily search and browse through these vast amounts of video content prevents us from optimally using that video content. Automatic categorization of video content (i.e., assigning a topic or category to a video such that it describes the content of the video) can aid applications in the area of life logging and storytelling, to name a few. Goal: Deep learning techniques have recently shown to outperform several other machine learning techniques and are therefore currently adopted by big internet companies such as Facebook, Google, and Netflix. In this master’s thesis, we will investigate how the aforementioned deep learning techniques can be used to automatically assign a category (e.g., news, sports, music …) to short-form mobile video originating from social media applications such as Vine and Instagram Video. This type of video content is particularly challenging, given its fast-paced and noisy nature. The student will create a framework that allows automatically assigning a category to a video, taking into account its visual content and the presence of social annotations such as hashtags or mentions. The effectiveness of the framework will be assessed based on a ground truth set originating from the online social networks itself. The student will be able to acquire an in-depth knowledge of different state-of-the-art techniques for deep learning and video analysis. Semantic hashing for near-duplicate video clip detection on online platforms for video sharing Supervisors: Abhineshwar Tomar, Baptist Vandermissen Promoter: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Abhineshwar Tomar Keywords: deep learning, semantic hashing Location: home, Zuiderpoort Problem Definition: Online platforms for video sharing (e.g YouTube) significantly grapple with the problem of nearduplicate video clips. Besides cluttering search results, these near-duplicates these near-duplicate clips often infringe upon the copyright holder's intellectual property rights of copyrights of the artist quite often thus affecting the revenue of the original content creator. The massive size and dynamic nature of online platforms demands for video sharing requires the use of techniques that allow for both efficient and effective of near-duplicates of a video. Goal: In this master's thesis we plan to make use of the deep learning techniques in order to develop a semantic based technique for near-duplicate video clip detection. This master's thesis will first entail a study of the basic principles of video analysis and deep learning, and where the latter has attracted the attention of companies like Facebook, Google and Netflix. Next, this master’s thesis will focus on the development and testing of techniques for generating semantic hashes for video clips, for instance taking the approach of Salakhutdinov and Hinton as a starting point [1]. This approach applies semantic hashing to text documents. It is expected that semantic video hashes will be able to preserve the semantics of video clips: the more semantically similar video clips are, the closer the video clips are in the hash feature space, thus making it possible to speed up the detection of near-duplicate video clips (as any newly uploaded video clips do not need to be compared to all of the already available video clips). Finally, this master’s thesis also aims at testing the semantic video hashes on content originating from online platforms for video sharing. This master's thesis gives students the opportunity to acquire a solid understanding of deep learning techniquesby tackling a number of practical challenges in the area of near-duplicate video clip detection. If you would have any comments, questions, or ideas, then feel free to contact me at [email protected]. References: [1] R. Salakhutdinov and G. E. Hinton, "Semantic hashing," in Proceedings of the 2007 Workshop on Information Retrieval and applications of Graphical Models (SIGIR 2007), Amsterdam: Elsevier, 2007. An automatic, personalized sports commentator by making use of deep learning and social media Supervisors: Fréderic Godin and Abineshwar Tomar Promoter: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 2 Contact Person: Fréderic Godin Keywords: social media, Twitter, sports, natural language processing, deep learning Location: home, Zuiderpoort Problem definition: When sports fans cannot watch a sports game, they often use social media to follow the game. They read microposts of people that are watching the game and that are giving live coverage of the game. More than 40% of the sports fans have once used social media to follow a game. TO that end Twitter is often used. During a game, fellow fans take the role of a sports commentator. These fans often disagree with the commentator on television who needs to stay neutral in order to satisfy fans of both competing teams. A possible solution would be to make use of the vast amount of microposts on social media to create a personalized, sports commentator. Goal: The goal of this master's thesis is to make use of comments and opinions on social media during a sports game to create an automatic sports commentator. This will allow sports fans to read/hear personalized comments created for and made by fellow sports fans. In order to create this text automatically, we will make use of deep learning techniques. Deep learning techniques recently showed to outperform several other machine learning techniques and are therefore currently adopted by big internet companies such as Facebook, Google and Netflix. In this master's thesis, you will explore how deep learning can be applied to automatically generate meaningful comments during a sports game. You will learn the basics of deep learning and you will investigate how the vast amount of microposts that are generated every minute can be used for this purpose. It is up to the student to decide on which sport the algorithm will be developed. If you are interested in this thesis or if you have a good idea yourself in the field of social media nalysis, feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or send me an e-mail at [email protected] Efficiënte schaling en compositie van videostromen Begeleiders: Glenn Van Wallendael en Thijs Vermeir Promotoren: Jan De Cock en Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: compositie, videocompressie, HEVC Locatie: Zuiderpoort, thuis Probleemstelling: In controlekamers (beveiliging, verkeer, luchthaven, …) komen tal van videostromen binnen die weergegeven worden op een immense videowall. Met de opkomst van krachtige smartphones en tablets wordt de mogelijkheid gecreëerd om diezelfde videocontent ook hierop weer te geven. Het sturen van al deze videostromen apart is niet evident en daarom wordt op een intelligente manier een compositie gemaakt van deze videostromen. Op dit ogenblik wordt dit samenstellen van meerdere videostromen naar een enkele videostroom gedaan door deze allemaal te decoderen gevolgd door een schaling van de video. Vervolgens worden de pixels gecombineerd om dan het resultaat terug te encoderen. Het zou veel efficiënter zijn moest alle informatie uit de binnenkomende videostromen gebruikt worden om de uitgaande videostroom sneller te encoderen. Doelstelling: In deze masterproef worden technieken ontwikkeld om meerdere videostromen op een efficiënte manier te combineren. Hiervoor kan gebruik gemaakt worden van de open source implementatie van de HEVC videocompressiestandaard (http://hevc.kw.bbc.co.uk/). Een extra meerwaarde van deze masterproef is dat deze mede begeleid wordt door Barco (http://www.barco.be). Optimalisatie van HTTP adaptive streaming Begeleiders: Glenn Van Wallendael Promotoren: Jan De Cock and Rik Van de Walle Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: HTTP streaming, mediaprotocollen, mobiele toestellen Locatie: Zuiderpoort, thuis Probleemstelling: Het afleveren van multimediale data via het Web kan op een aantal verschillende manieren. In de beginjaren van het Web werd multimedia gewoon gedownload (zoals een gewoon bestand), waarna het afgespeeld werd als de download compleet was. Momenteel wordt er veelal gebruikgemaakt van progressief downloaden: je kan reeds beginnen kijken terwijl het downloaden nog aan de gang is. Anderzijds zijn er in de voorbije jaren ook een aantal protocollen ontwikkeld speciaal voor het afleveren van multimediale data (i.e., de zogenaamde real-time streaming protocollen zoals RTSP en RTMP). Deze werken heel efficiënt op het gebied van bandbreedte en random access, maar vereisen wel speciale serverinfrastructuur omdat er niet via HTTP gecommuniceerd wordt. Doelstelling: Recent is er een nieuwe aanpak ontwikkeld, HTTP adaptive streaming genaamd, die de voordelen van zowel HTTP progressive download als real-time streaming combineert. Zoals de naam reeds aangeeft wordt er in deze techniek gebruikgemaakt van het HTTP-protocol, zodat elke gewone Web-server kan gebruikt worden. Het idee is dat de aflevering van multimediale data neerkomt op een opeenvolging van het progressief downloaden van kleine segmenten (typisch tussen 2s en 10s). Doordat we met kleine segmenten werken, kan er ook tussen die segmenten gewisseld worden van kwaliteit (bv. omdat de bandbreedte kleiner geworden is), vandaar het adaptieve aspect van de nieuwe techniek. Voorbeelden van bestaande oplossingen die HTTP adaptive streaming gebruiken zijn Apple HTTP Live streaming en Microsoft Smooth Streaming. Verder is er binnen MPEG ook een standaard ontwikkeld voor HTTP adaptive streaming: MPEG DASH. In deze masterproef is het de bedoeling om te focussen op het adaptieve aspect van de HTTP streaming technologie. Meer bepaald moet er onderzocht worden hoe de video optimaal kan geconfigureerd worden om zo veel mogelijk mensen een optimale kwaliteit aan te bieden. Ontwikkeling van videocompressietools op de GPU met behulp van NVIDIA CUDA Begeleiders: Glenn Van Wallendael, Jonas El Sayeh Khalil Promotoren: Jan en Rik Aantal studenten: 1 Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: GPU, compressietools, NVIDIA CUDA, HEVC Locatie: Zuiderpoort, thuis Probleemstelling: Meer en meer wordt bij videocodering aandacht besteed aan het optimaliseren van de codeerefficiëntie bij een lage coderingscomplexiteit. Voorbeelden hiervan zijn te vinden in nieuwe standaarden voor beeldcodering en videocodering, bv. Motion JPEG XR. Deze standaarden laten toe omwille van de lage complexiteit en beperkte afhankelijkheden in de bitstroom om relatief eenvoudig berekeningen in parallel uit te voeren, bijvoorbeeld op een GPU. Andere coderingsstandaarden zoals H.264/AVC en HEVC bieden dan weer betere compressie aan, maar laten een parallelle uitvoering minder eenvoudig toe omwille van de complexiteit. Doelstelling: In deze masterproef is het de bedoeling om vertrekkende van een bestaande standaard, bijvoorbeeld HEVC, compressietools te ontwikkelen die optimaal gebruik kunnen maken van de duizenden threads aanwezig op de GPU. Na zorgvuldige analyse van de coderingsstappen kunnen deze processen aangepast worden om afhankelijkheden te elimineren en de complexiteit te verlagen Het eindresultaat is een GPU-gebaseerde compressietool met lage complexiteit die video beelden snel kan verwerken met een compressiefactor vergelijkbaar met de originele standaard. De student kan steunen op de uitgebreide kennis inzake GPU’s en videocodering die binnen het lab aanwezig is. Een open source software implementatie van de HEVC-standaard kan gevonden worden op http://hevc.kw.bbc.co.uk/. Algoritmen voor efficiëntere hercodering van HEVC Begeleiders: Glenn Van Wallendael en Luong Pham Van Promotor: Jan De Cock and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: High-Efficiency Video Coding (HEVC) Locatie: Zuiderpoort, thuis Probleemstelling: In een volledige productieketen wordt een videobestand meerdere keren omgezet tussen verschillende formaten. Bij het opnemen op een camera wordt de video gecomprimeerd met een eenvoudig algoritme omdat de camera niet te veel mag verbruiken. Tijdens de montage ligt de focus op editeerbaarheid, waardoor een ander formaat geschikter is. Vervolgens moet het beeldmateriaal gedistribueerd worden waardoor een zo laag mogelijke bandbreedte bereikt moet worden. Al deze omzettingen brengen een kwaliteitsverlies met zich mee en vragen ook veel processorkracht. Het is aan de student om één van deze problemen aan te kaarten tijdens de masterproef. Doelstelling: In deze masterproef wordt getracht om een transcodering (omzetting) te verwezenlijken die ofwel lager is van complexiteit of beter in termen van compressie vergeleken met de cascade van decodering en encodering. Het compressieformaat waarop de verbetering toegepast zal worden is High-Efficiency Video Coding (HEVC), de opvolger van H.264/AVC. De software van deze codec is volledig opensource en aanpassingen kunnen dus zonder problemen gemaakt worden. Efficiënte transcodering van H.264/AVC naar HEVC Begeleiders: Glenn Van Wallendael en Sebastiaan Van Leuven Promotor: Jan De Cock and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: H.264/AVC, High-Efficiency Video Coding (HEVC) Locatie: Zuiderpoort, thuis Probleemstelling Op dit ogenblik wordt een enorme hoeveelheid beeldmateriaal opgeslagen volgens de H.264/AVCcompressiestandaard. Omdat een opvolger van deze standaard er aan zit te komen, namelijk HighEfficiency Video Coding (HEVC), zal er een grote vraag komen naar apparatuur die deze bestanden omzet naar het nieuwe formaat. De meest gebruikelijke manier is om de oorspronkelijke video eerst te decoderen en deze daarna onafhankelijk te encoderen naar het nieuwe formaat. Omdat beide compressiestandaarden op dezelfde principes gebouwd zijn is het duidelijk dat dit zeker niet de meest efficiënte methode is. Doelstelling: De student zal in een eerste fase de eigenschappen van H.264/AVC en HEVC bestuderen. Dan zal de werking ervan geanalyseerd moeten worden op mogelijke verbeteringen en gelijkenissen die uitgebuit kunnen worden. Beide codecs zijn volledig open source en dus zullen alle ideeën tot verbetering ook daadwerkelijk geïmplementeerd kunnen worden zonder eerst de codec van meet af aan te moeten programmeren. Robuuste watermerken voor video-adaptatie Begeleiders: Glenn Van Wallendael en Luong Pham Van Promotor: Jan De Cock en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Jan De Cock Trefwoorden: videoadaptatie, watermerken Locatie: Zuiderpoort, thuis Probleemstelling: Het toevoegen van watermerken maakt verschillende toepassingen mogelijk, zoals het detecteren van ongewenste aanpassingen aan videostromen, het identificeren van illegale verspreiding van videobestanden, het aantonen van eigendom van de videocontent etc. Belangrijk is enerzijds dat deze watermerken kunnen ingevoegd worden zonder een zichtbare wijziging aan te brengen in de videobeelden; anderzijds moeten ze robuust genoeg zijn om (al dan niet gewenste) operaties zoals video-adaptatie te overleven. In deze masterproef worden algoritmen bestudeerd die watermerken toevoegen aan HEVCvideostromen. Deze watermerken worden vervolgens op de proef gesteld door algoritmen voor transcodering (bv. reductie van bitsnelheid, spatiale resolutie). Het ingevoegde watermerk wordt als ‘succesvol’ beschouwd indien het na decodering correct kan worden geëxtraheerd uit de gedecodeerde videostroom. Doelstelling: In een eerste fase wordt bestudeerd welke elementen van HEVC-videostromen geschikt zijn om watermerken aan toe te voegen zonder de visuele kwaliteit van de gedecodeerde stromen te schaden. Vervolgens zullen algoritmen bestudeerd worden die robuuste watermerken toevoegen met het oog op de verschillende adaptatie-operaties. De algoritmen voor het invoegen van watermerken zullen geïmplementeerd worden in software. Vervolgens zal de robuustheid van de watermerken getest worden binnen het raamwerk voor transcodering dat ontwikkeld werd binnen Multimedia Lab. Automatisering van golden eyes: referentieloze kwaliteitsbeoordeling van digitale televisie gecomprimeerd met HEVC Begeleiders: Glenn Van Wallendael (Multimedia Lab), Nicolas Staelens (IBCN) Promotor: Jan De Cock en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 2 Contactpersoon: Glenn Van Wallendael Trefwoorden: videokwaliteit, pakketverlies, HEVC Locatie: Zuiderpoort, thuis Probleemstelling: Als een gemiddelde kijker sceptisch zou zijn over de kwaliteit van HD beeldmateriaal, aangeboden op de kabel, dan had de HD-revolutie nog een tijdje op zich laten wachten. HD-beeldmateriaal heeft namelijk nood aan een hogere netwerkcapaciteit dan degene die nu geleverd wordt. Daarbij komt nog dat bij het transport van de video over het netwerk fouten in de bitstroom worden geïntroduceerd. Deze fouten resulteren in zichtbare artefacten (blocking, drift, …) en bijgevolg in een suboptimale beleving door de kijker. Op dit ogenblik is er geen geautomatiseerde manier om deze fouten aan de distributeur (Telenet, Belgacom, …) kenbaar te maken, maar wordt er gewerkt met golden eyes. Dit zijn mensen die de kwaliteit van verschillende TV-kanalen in het oog moeten houden op fouten. Door de afwezigheid van een automatische kwaliteitsfeedback kunnen geen optimaliserende beslissingen gemaakt worden i.v.m. de codering en de transport van de video. Doelstelling: In deze masterproef zal getracht worden om een kwaliteitsindicator te ontwikkelen die het proces van de golden eyes kan bijstaan. Dit kan verwezenlijkt worden door eigenschappen uit zowel de videostroom (bewegingsvectoren, macroblokgrootte, …) als het gedecodeerde beeld te combineren. Door deze eigenschappen in verband te brengen met de kwaliteit kan een goede kwaliteitsmaat opgebouwd worden. Deze kwaliteitsmaat kan dan de basis vormen voor een meer robuuste en dus kwaliteitsvollere TV-ervaring. Door de begeleiding vanuit zowel Multimedia Lab als IBCN, zal kennis en ervaring uit beide onderzoeksgroepen ter beschikking staan voor de verwezenlijking van de masterproef. Textuurgeneratie voor vereenvoudigde 3D-modellen Supervisors: Jonas El Sayeh Khalil Promoter: Peter Lambert en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Jonas El Sayeh Khalil Keywords: textuurdata, meshvereenvoudiging, ware-tijd rendering Location: home, Zuiderpoort Description: De modellen die gebruikt worden in animatiefilms, kunnen vaak heel complex worden. Wanneer we deze modellen zouden willen gebruiken in een videospel, dan moeten deze heel sterk vereenvoudigd worden voor ze effectief bruikbaar zijn. Een interessante bemerking in deze wereld, is dat veel gebaseerd is op illusies: eenvoudige driehoekjes worden gebruikt, maar door toevoeging van textuur kan de illusie ontstaan dat een heel complexe wereld weergegeven wordt. Typisch gaan artiesten de texturen ontwerpen, maar een interessante onderzoeksvraag is in hoeverre deze texturen ontworpen kunnen worden door gebruik te maken van een complexer model als voorbeeld. In dit geval zouden we een model sterk kunnen vereenvoudigen, en door toevoeging van textuur de illusie scheppen dat het model nog steeds heel complex is; de grote vraag is dus hoe deze texturen gegenereerd kunnen worden, met zo weinig mogelijk inbreng van artiesten. Goal: In deze masterproef zal de student onderzoeken hoe texturen ontworpen kunnen worden om originele complexe modellen visueel te gaan benaderen. Enkele voorbeelden van hoog-complexe modellen, zoals deze ook gebruikt worden in de productie van animatiefilms, zullen voor de student beschikbaar zijn. De student zal zich verdiepen in texturen, en hoe deze de kwaliteit van een model kunnen beïnvloeden. Eens wat beter vertrouwd met textuur, zal het onderzoek vooral gericht zijn op de generatie ervan, waarbij vertrokken wordt van een uiterst complex model, en waarbij we een eenvoudige benadering willen aanvullen met textuurdata om te zorgen dat het uiteindelijke beeld toch een hoge kwaliteit lijkt te hebben. De student zal zo ervaring kunnen opdoen in zowel de wereld van offline rendering zoals gebruikt in films, en ware-tijd rendering wat nodig is in bv. videospellen. Schaalbare compressie van meshes Begeleiders: Jonas El Sayeh Khalil Promotor: Peter Lambert en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 1 Contactpersoon: Jonas El Sayeh Khalil Trefwoorden: 3D modellen, schaalbare compressie, signaalverwerking, entropiecodering, 3D kwaliteitsmetrieken Locatie: Zuiderpoort, thuis Description: GPU’s vandaag de dag zijn krachtiger dan ooit, en kunnen honderdduizenden driehoeken zonder problemen op het scherm toveren. Het verkrijgen van al die data op de GPU zelf is een andere zaak: om alles van je harde schijf naar de GPU te uploaden, of zelf van een server bij online gaming, is meer tijd nodig. Compressie is hier belangrijk, maar ook het progressief kunnen weergeven van modellen is belangrijk om kwaliteit te garanderen. Liever dan dat een model plots op het scherm verschijnt, hebben we liever dat we al zien dat er wat is, en dat het model er steeds beter uit gaat zien in zoverre dit effectief nodig is. Het laatste decennium is hierrond veel onderzoek gedaan, maar vooral richtend op zogenaamde (semi)-regelmatige meshes. Om kwaliteit te garanderen, zijn meshes met een onregelmatige topologie echter veel belangrijker, en hier is duidelijk nog werk te verrichten in research. Goal: De student zal zich initieel inwerken in het domein van meshcompressie, en zo vertrouwd raken met hoe een 3D-model eigenlijk opgesteld is en hoe deze typisch gecomprimeerd kunnen worden. Eens vertrouwd met het onderwerp en met de state-of-the-art, zal de student zich meer verdiepen in meshes met een onregelmatige topologie, het soort meshes dat ook in de industrie het belangrijkst zijn om hoge kwaliteit te garanderen. Deze zijn typisch moeilijker te comprimeren juist door hun onregelmatigheid, en onderzoek is nodig om dit toch efficiënt te kunnen doen. Eén optie is om bij elke vereenvoudiging een steeds regelmatigere mesh te bekomen, een alternatief is om te zoeken waar redundante informatie te vinden is, en zo entropiecodering te optimaliseren. De student doet zo ervaring op in zowel de wereld van 3D modelering en ware-tijd rendering, als in de wereld van signaalverwerking om modellen efficiënt te comprimeren. Optimalisatie van meshvereenvoudiging via een voxelisatiestap Begeleiders: Jonas El Sayeh Khalil, Ignace Saenen Promotor: Peter Lambert en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 1 Contactpersoon: Jonas El Sayeh Khalil Trefwoorden: parallellisatie, GPU programmeren, voxelisatie, Marching Cubes, meshconstructie Locatie: Zuiderpoort, thuis Description: Meshvereenvoudiging is het proces waarbij een complexe mesh, voorgesteld door een groot aantal driehoeken, vereenvoudigd wordt tot een mesh met een veel lager aantal driehoeken. Een oplossing waarbij we topologische complexiteiten negeren is door gebruik te maken van voxelisatie, het proces waarbij een mesh omgezet wordt in een voxelrepresentatie. Voxels, of volumetric pixels, kunnen gezien worden als een uitbreiding van 2D-pixels naar een derde dimensie, waarbij we bijvoorbeeld kunnen aangeven dat een voxel binnenin een mesh zit door het de waarde 1 te geven, of zich vanbuiten bevindt met de waarde 0. Na hierop bewerkingen te doen, en nadien terug een mesh te genereren, kan een vereenvoudigde mesh op een efficiënte manier bekomen worden. Het resultaat is een lageresolutie mesh die bijvoorbeeld gebruikt kan worden in een level-of-detailaanpak. Goal: De student zal onderzoek doen omtrent de mogelijkheden i.v.m. zowel voxelisatie als meshreconstructie. De centrale vraag zal zijn hoe de prestaties, zowel in rekentijd als qua kwaliteit, verbeterd kunnen worden. Wat rekentijd betreft, ligt de weg open om massieve parallellisatie uit te buiten: de voxel-representatie leent zich daar uitstekend voor, en de student kan zich baseren op een prototype dat er nog niet efficiënt gebruik van maakt. Op deze manier zal de student ervaring kunnen opdoen met GPU-programmeren, en een taal zoals CUDA of OpenCL. De reconstructie zelf maakt voorlopig gebruik van een eenvoudige Marching Cubes-implementatie, en ook hier zullen optimalisaties mogelijk zijn. Na een onderzoek van de state-of-the-art in dit domein zal de student zich focussen op alternatieven die een betere kwaliteit opleveren, maar zich nog steeds blijven lenen tot een massiefparallelle implementatie. Toeristische digitale ontsluiting van de Vlaamse waterwegen Begeleiders: Arnout Willockx (de Milieuboot), Steven Verstockt en Viktor Slavkovikj Promotor: Erik Mannens en Rik Van de Walle Richting: Master Computerwetenschappen, Master Wiskundige Informatica Aantal Studenten: 1 Aantal Masterproeven: 1 Contactpersonen: Steven Verstockt en Viktor Slavkovikj Trefwoorden: contextualisatie, recommendatie, geotagging, analyse van geotagged media. Website: http://www.milieuboot.be Locatie: thuis, Zuiderpoort Probleemstelling Voor de her-/opwaardering van de Vlaamse Waterwegen wil Milieuboot vzw een interactieve gids ontwikkelen die zowel op als naast het water door verscheidene van zijn doelgroepen gebruikt kan worden. Op basis van de gps-coordinaten en de context (tijdstip/persoonlijke voorkeuren/etc.), dient de applicatie gerichte multimediale informatie te verschaffen omtrent de omgeving van het stuk waterweg waarop men zich bevindt. De interactieve gids zou een grotere beleving op/naast het water moeten te weeg brengen. Doelstelling In deze masterproef dient te worden onderzocht (i) hoe geotagged media omtrent een bepaald stuk waterweg op een (semi-)automatische wijze kan worden verzameld en beheerd, (ii) hoe gecontextualiseerde aanbevelingen op deze content kunnen worden gegenereerd en (iii) hoe geotagged sensordata van de boot/watertoestand (on-/off-boat data) kan worden gearchiveerd. De ontwikkelde interactieve gids (demoapplicatie) moet men kunnen raadplegen via de displays op de boot en via een mobiele app. Figuur 1 : Interactieve multimediale verrijking van de waterwegen Trusting query results on the open Web Supervisors: Ruben Verborgh, Tom De Nies Promoter: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Ruben Verborgh Keywords: Linked Data, provenance, trust, Semantic Web, querying, Web, HTTP, client/server Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. The Web way of answering a question is to find combine answers from different sources. But how can we be sure that the final answer is based on sources we can trust? This is the question you will answer in this thesis. Because information is spread across different places, the old database paradigm of “query => answer” doesn’t really work anymore on the Web. Linked Data Fragments (http://linkeddatafragments.org/) capture this idea: a client asks servers for different parts of information and is able to combine it by itself. We built a Node.js application that can query the Web in such a way (https://github.com/LinkedDataFragments/Client). What this client doesn’t tell you (yet), is where the different parts of the answer come from; it doesn’t give you a guarantee that the answer is correct/trustworthy. By combining Linked Data Fragments with provenance technology. Goal: Developing a method to combine the trust in different knowledge sources. Describing the trust in an answer that encompasses different sources. Developing a client that queries the Web and gives an answer you can trust. Querying the open Web by transforming HTML into Linked Data Supervisors: Ruben Verborgh, Anastasia Dimou Promoter: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Ruben Verborgh Keywords: Linked Data, Web, Semantic Web, HTML, querying Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. What’s the best place to buy new RAM for your laptop: Amazon or eBay? Who finished in the Top 10 of the Tour de France of the past 5 years? And what recipes for chocolate cake take under 15 minutes to prepare? If only our smartphone could use the Web to answer those questions! …and that’s what you will enable in this thesis. People are by far no longer the only users of the Web. Increasingly, automated clients try to use the Web by themselves. However, since they do not understand natural language, they need access to machine-interpretable formats such as RDF / Linked Data. In this thesis, you’ll develop a way to transform Web pages from HTML into Linked Data, so that machines can understand them. Next, you’ll extend our existing Linked Data Fragments client (http://linkeddatafragments.org/) so that machines can answer queries over Web pages. This then enables us to ask the above questions to our smartphone… and getting an answer to them! Goal: Developing a method to convert regular Web pages into linked data. Building a Linked Data Fragments client that can query Web pages. Evaluating your query solution on aspects such as accuracy and performance. Distributed query answering on the open Web Supervisors: Ruben Verborgh, Miel Vander Sande Promoter: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Ruben Verborgh Keywords: Linked Data, Web, Semantic Web, querying, distributed systems Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. What do your friends think of movies directed by Martin Scorsese? What Nvidia graphics cards have few bug reports on Linux? Is it cheaper to buy certain flights and hotels separately or together? None of the above questions can be answered by a single data source, yet today’s Web technology still focuses on single-source answer systems. This is problematic because a) it’s not scalable, since that single source will need to process a lot of queries, and b) that source doesn’t have all the data it needs to answer questions such as the above. The idea behind Linked Data Fragments (http://linkeddatafragments.org/) is that clients, instead of servers, should answer queries. Sources should offer fragments of data in such a way that clients can combine them to answer questions that span multiple datasets A client that works with a single data source already exists (https://github.com/LinkedDataFragments/Client). Your task in this master’s thesis is to extend this client – or build a new one – so that it can query different data sources for a single query. Goal: Developing a scalable method to answer queries using different data sources. Describing to a client which data sources are relevant for a given query. Evaluating your solution on aspects such as accuracy and performance. Querying multimedia data on the (social) Web Supervisors: Ruben Verborgh, Miel Vander Sande Promoter: Erik Mannens en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Ruben Verborgh Keywords: Linked Data, Web, Semantic Web, querying, multimedia, images, video Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. How would you find YouTube movies about “New York” in which people mention the Twin Towers? How could you find images that depict two people shaking hands? Even though there is a large amount of metadata available on the Web, finding images and video can be quite difficult. The goal of this thesis is to build an intelligent client (for instance, as a browser extension) that is able to find multimedia items on the Web. This saves users many search operations on different datasets. For this, you will need to combine metadata from different sources. A starting point for this is the Linked Data Fragments client (http://linkeddatafragments.org/), which already allows to query the Web Of Data. Your task is to blur the border between textual and multimedia search, making it easier to find those media items users are looking for. Goal: Developing a client to find multimedia data on the Web. Finding methods to query existing multimedia platforms such as YouTube and Instagram. Evaluating your solution on aspects such as recall, precision, and performance. Real-time querying of transport data on the Web Supervisors: Ruben Verborgh, Pieter Colpaert Promotor: Rik Van de Walle en Erik Mannens Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verborgh Keywords: Linked Data, Web, Semantic Web, querying, transport, train Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. The Belgian rail website allows you to plan your journey, but only in very rigid ways. It does not take into account your current location and plans. Suppose you need to be in a certain building in Brussel for a meeting. That morning, you decide to take the train at 14:06. Unfortunately, that train is severely delayed later on, but you won’t know that until you check the website again. In this thesis, you develop a querying system over the Web that allows to retrieve real-time results that are continuously updated. Based on data from different sources, your system automatically picks those fragments that are necessary for users to plan their journey. You can build on existing work for Web querying, such as Linked Data Fragments (http://linkeddatafragments.org/). Goal: Developing a real-time querying mechanism for transport data. Planning a route using different fragments of data from the Web. Evaluating your solution on aspects such as bandwidth and performance. Continuously updating real-time querying on the Web of Data Supervisors: Ruben Verborgh, Pieter Colpaert Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Ruben Verborgh Keywords: Linked Data, Web, Semantic Web, querying, real-time Location: home, Zuiderpoort Problem definition: Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English. Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels schrijven. Information moves at the speed of light; most things are already outdated when you read them. Current query endpoints on the Web do not account for this. They give an answer, and if you want updated results, you’ll have to ask the question again. In this thesis, your challenge is to create a client framework for applications that allows continuously updating results. For instance, when you're reading the overview of a football match which is not finished yet, results should come in as the game evolves: goals are made, tackles are performed, or players are substituted. So therefore, queries such as “give me the current number of goals” or “give the names of the players on the field” are in constant change. Note how in both cases, facts have to be updated and/or retracted. Of course, errors can be made during the reporting and results should also be able to be corrected. This leads to applications that react to data in a much more flexible and dynamic way. You can build on existing work for Web querying, such as Linked Data Fragments (http://linkeddatafragments.org/). Goal: Creating a protocol to exchange real-time query results. Developing a framework for clients that query real-time results. Demonstrating the framework with one or two example applications. Distributed video encoding Begeleiders: Pieter Delbeke (Zentrick) and Glenn Van Wallendael Promotor: Jan De Cock and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 1 Contactpersoon: Pieter Delbeke Trefwoorden: video encoding parallellisatie Locatie: Zuiderpoort, thuis Probleemstelling Het encoderen van video is een recource intensieve en tijdrovende taak. Er dienen voor verschillende apparaten en platformen verschillende formaten aangemaakt te worden. Voor gebruikers van ons platform is het echter heel belangrijk dat de video’s die ze uploaden zo snel mogelijk online beschikbaar zijn. Snellere processoren hebben slechts een beperkte invloed op de gewenste uitvoersnelheid. De ideale oplossing is het opsplitsen van het werk over verschillende servers. Dit vereist geavanceerde planning en coördinatie van de encoding. Doelstelling Stel een architectuur op die ons toelaat om onze video-encodering te parallelliseren. Hierbij dien je rekening te houden met schaalbaarheid en robuustheid. Vervolgens kan je overgaan tot de implementatie. Binnen Zentrick wordt er gebruikgemaakt van .NET (C#) voor het ontwikkelen van server-side software. About Zentrick: Zentrick offers publishers an interactive video platform to increase engagement, enhance related content re-marketing and improve call to action conversion rates. The Zentrick platform provides an integrated set of services including an interactive video development platform, multi-platform/device content delivery capabilities, a rich development studio and a robust analytics suite. Video Object Tracking Begeleiders: Pieter Delbeke, Baptist Vandersmissen, Abhineshwar Tomar, and Viktor Slavkovikj Promotor: Wesley De Neve and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 1 Contactpersoon: Pieter Delbeke Trefwoorden: video image recognition Locatie: Zuiderpoort, thuis Probleemstelling Gebruikers van ons platform kunnen objecten in een video taggen en hieraan informatie of een actie koppelen. Zo kan een bepaald product in de video getagged zijn met de prijs en omschrijving. De kijker van de video kan vervolgens op het product klikken tijdens het afspelen van de video, en zo deze informatie opvragen. Het taggen van zo een voorwerp in de video is een tijdrovende klus die geautomatiseerd kan worden. De uitdaging bestaat erin dat het voorwerp in de video beweegt en dat de tag deze beweging dient te volgen. Doelstelling Op het moment van schrijven bestaat er reeds een proof of concept. Deze versie zal verder uitgewerkt worden. Mits er op dit vlak nog veel ruimte voor onderzoek en verbetering is, kan er bij de aanvang van de stage gekeken worden welke punten interessant zijn om verder uit te werken. Niet alleen de betrouwbaarheid kan verbeterd worden, ook de hoeveelheid gedetecteerde informatie kan uitgebreid worden. Zo kan er gekeken worden of objecten over shot-wissels heen getracked kunnen worden en er een automatische classificatie van de objecten kan gebeuren zoals gezichten, productlogo’s of tekst. About Zentrick: Zentrick offers publishers an interactive video platform to increase engagement, enhance related content re-marketing and improve call to action conversion rates. The Zentrick platform provides an integrated set of services including an interactive video development platform, multi-platform/device content delivery capabilities, a rich development studio and a robust analytics suite. High Dynamic Range (HDR) optimization for encoding Supervisors: Niels Van Kets, Glenn Van Wallendael Promotor: Jan De Cock en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Niels Van Kets Keywords: High Dynamic Range, image processing, High Efficiency Video Codec, video compression Location: home, Zuiderpoort Problem definition: HDR images typically make a representation of a real-world scene by using a combination of higher bitdepths and tone-mapping. Tone-mapping is the process of changing the contrast linearity scale to increase the perceived contrast of an image. Because most video codecs are optimized for linear contrast content, encoding images that have lost their linearity might impose losses in encoder efficiency and performance. In the field of image processing and video compression much research has been done on increasing user experience. Much of this research has been done on increasing resolutions, but at this moment we are already talking about 4K and even 8K resolutions. Further increase of resolutions beyond 8K will probably become less important for regular home appliances. High Dynamic Range tends to be the next way-to-go on improving user experience. Whereas high definition displays pump out more pixels, HDR displays provide more contrast by using a higher bit depth per pixel. This contrast is the key of making images more realistic (see figure below). Low Dynamic Range High Dynamic Range Goal In this master’s thesis, we would like to implement an optimalisation process to increase our encoding performance. Typically this solution should contain a pre-processing step that optimalises the raw recorded HDR content in such a way that the performance and efficience of our HEVC codec increases significantly. After the decoder, a post-processing step will inverse the pre-processing algorithm such that the content at the end of our chain is (visually) lossless compared to our input content. High Dynamic Range (HDR) transcoding with tone mapping Supervisors: Niels Van Kets, Glenn Van Wallendael Promotor: Jan De Cock en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Niels Van Kets Keywords: High Dynamic Range, High Efficiency Video Codec, transcoding, tone mapping Location: home, Zuiderpoort Problem definition: Although HDR seems to be a great opportunity to increase user experience, not many end user devices already support this higher bit depth needed to support the complete HDR range. To adapt to this problem, many effort and time has been spent in order to compress the HDR range such that the data may be visualized more naturally on a low dynamic range display. This process is called tone mapping and is typically done on the raw image data. This process attempts to keep some characteristics of the original HDR content and provide a real-world perception of the real-world scene. In the field of image processing and video compression much research has been done on increasing user experience. Much of this research has been done on increasing resolutions, but at this moment we are already talking about 4K and even 8K resolutions. Further increase of resolutions beyond 8K will probably become less important for regular home appliances. High Dynamic Range tends to be the next way-to-go on improving user experience. Whereas high definition displays pump out more pixels, HDR displays provide more contrast by using a higher bit depth per pixel. This contrast is the key of making images more realistic (see figure below). Low Dynamic Range High Dynamic Range Goal: In this master’s thesis, we would like to implement tone mapping on HDR content that is already encoded with an HEVC video codec. This tone mapping will be implemented in a transcoding step that reuses information from the initial encoding of the high bit depth content. By using this information we would like to increase these transcoding speeds while maintaining the real-world perception of the video. Automatic Composition of Context-based Content in Digital Books Supervisors: Hajar Ghaem Sigarchian, Tom De Nies, Wesley De Neve Promotor: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact: Hajar Ghaem Sigarchian Keywords: eBook, Widgets, Ubiquitous environment, Semantic Web, enrichment, Webmapping Location: home, Zuiderpoort Problem definition: Given the increasing popularity of eBooks, authors and publishers are currently experimenting with innovative workflows and novel book concepts, for instance testing the boundaries of content formats such as HTML5 and EPUB3. Compared to print books, the content of digital books does not have to be static; instead, the content of digital books can be automatically provided and updated according to the context in which these books are used. This context may include the location, time, and interests of the user, as well as the characteristics of the different devices the user is relying on (e.g., a smart phone or a tablet). Goal: The goal of this master’s thesis is to answer the question of how to automatically provide and update the content of digital books, taking into account diverse usage contexts. The student first needs to conduct a literature review, making it possible to achieve a good understanding of the state-of-the-art, possible use cases (e.g., educational materials and travel guides), and corresponding requirements. Next, the student will propose an architecture and information model that meets the requirements of the use cases selected, subsequently implementing a proof-of-concept that makes use of (Semantic) Web technology. Finally, the student needs to test the proof-of-concept, for instance evaluating the relevance of the automatically provided content. Research Question: How to provide and update contextualized content for interactive digital books in a diverse usage environment? How to Evaluate? By comparing the content of a digital book that has been authored automatically (unsupervised) with the content of a digital book that has been authored manually (supervised). Deep Learning for entity specific sentiment analysis of reader comments on news reports Supervisors: Abhineshwar Tomar and Fréderic Godin Promoters: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Abhineshwar Tomar Keywords: artificial intelligence, deep learning, machine Learning, opinion mining, sentiment analysis Location: Zuiderpoort Problem Definition: Media play an important part in making the democratic procedures in a country healthy. However, in today's world of massive information availability, media are frequently accused of being corrupt, biased, partisan or - at the very least of - not providing the complete picture of a story. According to a poll in 2012 by Australian National University, media came on the top as the most affected institution by corruption, with 44% of the people voting for it [1]. Another discussion on debate.org finished with 83% of the people being convinced that the American media are corrupt [2]. It should be clear that these accusations and perceptions harm the very interests that a free and fair media is meant to protect, making it imperative to be able to identify bad media practices. In addition, the vast amount of media content being produced motivates the use of an automated solution. In this master's thesis we will focus on the analysis of textual news reports and comments made by readers on these reports. Sentiment analysis done on the news reports for a particular entity provides us with the opinion of the author on that particular entity. However these techniques do not inform us whether or not the opinion of the author was biased. To identify these biases we propose to rely on the opinion of the readers of the article. As such, this master's thesis aims to inform us about the perception of the readers of a news report regarding a particular entity. Goals: Sentiment analysis is an active area of research and development generating a lot of interest in the last ten years as more and more information became accessible through the Web. In this master's thesis we plan to perform sentiment analysis on news article and on reader comments regarding particular entities mentioned in the news article under consideration. A contradiction in the sentiment of the two regarding a particular entity will inform us about the perception that people have of the reporting in that article. We shall employ deep learning techniques to perform the sentiment analysis. These techniques have recently been shown to outperform other machine learning techniques on computer vision, speech recognition and natural language processing tasks attracting the attention of companies like Google, Facebook, Microsoft Research, IBM, Baidu and Netflix. In this master's thesis we shall particularly focus on performing sentiment analysis through the use of deep convolutional neural networks. Such a convolutional deep neural network has already been developed in the lab for the purpose of Twitter hashtag recommendation. The master's thesis will first involve studying the scientific literature on deep learning techniques paying particular attention to the use of deep convolutional neural networks. Next, this master's thesis will focus on developing and evaluating different deep neural network architectures for sentiment analysis, comparing the methods developed by making use of already available benchmarks. This master's thesis allows gaining insight into the increasingly popular field of the deep learning by tacking a number of practical challenges in the area of sentiment analysis. If you would have any comments, questions or further ideas, then feel free to contact me at [email protected]. References: [1] http://politicsir.cass.anu.edu.au/sites/default/files/2012-10-26_ANUpoll_ethics_corruption.pdf.pdf [2] http://www.debate.org/opinions/is-the-american-media-corrupt Natural language processing for microposts using deep learning Supervisors: Fréderic Godin, Abhineshwar Tomar Promoters: Wesley De Neve and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 2 Contact Person: Fréderic Godin Keywords: deep learning, natural language processing, social media Location: Zuiderpoort Problem Definition: In the last decade a number of techniques were developed to make well-formed texts such as news articles understandable for machines: Part of speech tagging, chunking, named entity recognition (recognizing locations and persons) but also sentiment analysis. However, these techniques cannot be applied to microposts because these microposts are short, contain a lot of spelling mistakes and are very noisy. Applying the same algorithm is therefore not straight forward. Goal: The goal of this master's thesis is to develop similar algorithms for microposts that deal with the special characteristics of microposts. For this, deep learning techniques can be used. These techniques have recently been shown to outperform several other machine learning techniques and are therefore currently adopted by Internet companies such as Facebook, Google and Netflix. In this master's thesis, you will explore how deep learning can be applied to microposts. Based on a literature study and personal interests, the student has the freedom to the most interesting algorithm to improve upon. If you are interested in this thesis or if you have a clever idea yourself in the area of social media analysis or deep learning, feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or send me an e-mail at [email protected] Enhancing user experience by data processing using wearable computing devices Supervisors: Jonas El Sayeh Khalil, Ignace Saenen Promoters: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Jonas El Sayeh Khalil Keywords: Google Glass, smart eyeware, augmented reality, wearable devices Location: Zuiderpoort Problem Definition: With wearable computers becoming more prominent in everyday life, one must consider how these devices can be used for enhancing everyday life and how they can become more than just a gadget. These devices have a lot of potential based on how people operate them. They don’t have to reach for their pockets or purse. One swift gesture and they can receive a lot of information at once. In this thesis we will focus on devices such as Google Glass or ReconJet. These devices enable developers to unleash the full power of informatics because they are able to provide a lot of data. This is the first problem domain we need to tackle. We need to research how we can traffic data and how these data needs to be processed to be useful for applications. Data can be for example used to deduct the users activity and enhance that experience. A possible case could be where the user is reading scientific papers, this data can then be used to provide information such as definitions about terms related to the research area. Goal: Once the data is processed, we need to define a useful way to communicate these back to the user. This data needs to be presented with care given that the used devices have a limited screen size which can be used for displaying information. There will also be the need for a feedback system so that the data processing mechanisms can learn from user feedback without involving the developer. Lastly there are two other issues that need to be addressed. Firstly we need to devise an efficient communication channel between the device and data processing server. We have to keep in mind that these devices have a limited battery life, so it’s important to lower the power usage. Secondly there is also a privacy issue. Deducting the user’s activity implies that the application has all-in access to the user’s personal life and he will definitely require a guarantee that his data is safe and not accessible by third parties. Automatische layout en generatie van 3D virtuele werelden Begeleiders: Ignace Saenen Promotor: Peter Lambert and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten:1 Aantal masterproeven: 1 Contactpersoon: Ignace Saenen Trefwoorden: Semantiek, object-plaatsing, procedurale inhoud generatie Locatie: Zuiderpoort, thuis Probleemstelling: 3D virtuele werelden worden steeds groter en visueel realistischer. Het is niet langer kostenefficient om deze werelden volledig door 3D artiesten te laten maken. "Intelligente" design tools zijn daarom hoognodig om dit artistieke werk te ondersteunen en bieden vaak oplossingen aan m.b.v. procedurale inhoud generatie (http://en.wikipedia.org/wiki/Procedural_generation): algoritmes staan hier letterlijk aan de wieg van nieuwe universa. Nadeel van deze techniek is dat de artistiest typisch een deel van zijn artistieke vrijheid verliest. Doelstelling: In deze masterproef zal het de bedoeling zijn om de mogelijkheden van procedurale inhoud generatie te onderzoeken bij het creëren van aantrekkelijke omgevingen en de mate waarin de artiest zijn vrijheid kan behouden. Binnen het lab werd reeds een raamwerk ontwikkeld waarbij concepten uit de fysica en semantiek gebruikt worden om de plaatsing van objecten binnenin een kamer te automatiseren. Jouw onderzoek zou dit raamwerk verder kunnen uitbreiden op 2 mogelijke manieren: door onderzoek naar het automatisch genereren van complete steden of landen enerzijds, of door onderzoek naar het verbeteren van de lokale object plaatsing binnenin een kamer anderzijds. Next-gen Augmented Reality on Smart Eyewear Begeleiders: Luc Peeters (Augnition), Jonas El Sayeh Khalil, Ignace Saenen, Ruben Verhack Promotor: Peter Lambert and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 2 Aantal masterproeven: 1 Contactpersoon: Luc Peeters Trefwoorden: Locatie: Zuiderpoort, thuis Context & probleemstelling Augmented Reality (AR) op Smart Eyewear zoals Google Glass biedt tal van nieuwe mogelijkheden, in vergelijking met AR op smartphones & tablets. De gebruiker moet niet meer zijn smartphone vasthouden en de camera richten op de ‘marker’ die herkend moet worden (POI, QR-code, print article, advertentie of affiche,…). Het volstaat om, eenmaal men de smart glass op heeft en de AR-app geactiveerd heeft, om in de richting van de marker te kijken. De AR-app zal dan, eenmaal de marker herkend is, de verrijking (AR-laag met label, button met link, illustratie, video of 3D-model) tonen bovenop de marker. In het geval van ‘see-through’ smart glasses, kan de verrijking in principe overal in het gezichtsveld getoond worden, m.a.w. de AR is niet meer beperkt tot enkel binnen het ‘video-frame’ zoals dat bij AR op een smartphone wel het geval is. Ook het feit dat de gebruiker niet kijkt op een videocaptatie met een AR-laag er bovenop, maar dat zijn zicht binnen het natuurlijke gezichtsveld blijft, is een groot voordeel, vooral in situaties waar de gebruiker ondertussen actief is (wandelen, rijden, taak uitvoeren,…): dit soort van AR op een smart glass is veel minder storend, zodat hij zijn activiteiten niet hoeft te onderbreken. Bovendien is de ‘user experience’ veel beter (natuurlijker, scherper), aangezien het natuurlijke gezichtsveld breder & scherper is dan een cameracaptatie op een scherm. Een bijkomend voordeel is dat de gebruiker niks hoeft te doen, behalve rondkijken: indien er geen AR-laag beschikbaar is binnen het gezichtsveld, merkt de gebruiker niks op van de AR-app - in tegenstelling tot AR op een smartphone, waar de gebruiker constant dient zijn omgeving te ‘scannen’ door zijn camera te richten. Op het moment dat een AR-laag beschikbaar wordt, wordt deze automatisch getoond bovenop het natuurlijke gezichtsveld & kan de gebruiker beslissen om hier al dan niet mee aan de slag te gaan - bijvoorbeeld door te kijken naar een ‘AR-pin’, waardoor die geactiveerd & uitvergroot wordt (vergelijk met een pin ‘openklappen’ in Google Maps). Tot daar de theorie. In de praktijk zijn er momenteel momenteel een aantal problemen met AR op smart glasses: - Beperkt gezichtveld (FOV of ‘field of view’): Google Glass bijvoorbeeld heeft een FOV van 17° en bovendien is dat beperkte venster binnen het gezichtsveld door Google bewust gepositioneerd in de rechterbovenhoek van het gezichtsveld van de drager. Dat betekent dat het niet mogelijk is om ‘gelijk waar in het gezichtsveld’ een AR-laag te presenteren aan de gebruiker. Deze beperkte FOV houdt in dat er toch nog net zoals op een smartphone moet gewerkt worden met een cameracaptatie op het scherm, waarbovenop de AR-laag. Bovendien verplicht dit de gebruiker om ‘heen en weer’ te kijken tussen de marker in zijn gezichtsveld en de marker op de cameracaptatie in de display. - Processor- & batterijbelasting bij AR-modus: AR-applicaties vragen veel rekenkracht. Het camerabeeld wordt niet alleen live getoond op het scherm, maar het wordt in real-time geanalyseerd (gezocht naar gekende markers) en bij een succesvolle herkenning wordt een AR-laag opgehaald (lokaal of in de cloud), gepositioneerd en in real-time gerenderd. Met de huidige AR-SDK’s (februari 2014) leidt dit bijvoorbeeld op Google Glass tot een overbelasting van de processor & een sneller oververhitting (cfr alert ‘Glass must cool down to function properly’), waarop de processor een aantal taken niet meer uitvoert. Bovendien is dit nefast voor de autonomie (batterij leeg na een uur in ARmodus). - Betrouwbaarheid & snelheid van de herkenning van de AR-markers: de camera van de huidige smart glasses is gericht op het capteren van het volledige gezichtsveld (groothoek). Deze optische karakteristiek brengt met zich mee dat het herkennen van markers niet altijd vlot verloopt, bijv. bij lichtomstandigheden die niet ideaal zijn. AR-SDK’s herkennen meestal ook QR- & barcodes. Terwijl QR-codes vlot herkend worden, is het herkennen van 1D-barcodes problematisch. Augnition heeft zowel een aantal smart glasses (februari 2014: Google Glass, Vuxix M-100, Epson Moverio), als een aantal AR-applicaties (zelf ontwikkelde & third party AR-apps) evenals 2 AR-SDK’s (Wikitude SDK & Metaio SDK), die toelaten om bovenstaande probleemstelling te analyseren. In het kader van deze masterproef zal Augnition ook de tools ter beschikking stellen aan de student om zelf (eenvoudige) AR-toepassingen te ontwikkelen, ter ondersteuning van het onderzoek. Doelstelling - Onderzoeken met AR-pilootapplicaties (bestaande of zelf ontwikkelde gebruikmakend van bestaande AR-SDK’s zoals Wikitude, Metaio,…) wat de impact is van de beperkte FOV van de huidige smart glasses met een display in de hoek van het gezichtsveld (Google Glass, Vuzix M100). Nagaan of AR op deze toestellen al dan niet aanvaardbaar is qua user experience en of het aangewezen is om de AR-laag full-screen als een ‘fiche’ te tonen, in plaats van als een ‘pin’ op het camerabeeld. Onderzoeken of smart glasses met een scherm in het midden van het gezichtsveld (Epson Moverio BT200) maar met nog steeds een beperkte FOV al dan niet een betere gebruikerservaring opleveren voor AR-applicaties - of dat het beter is om te wachten met het verrijken van het gezichtsveld met een ARlaag, totdat er smart glasses zijn met een grotere FOV (vanaf hoeveel graden maakt dit een verschil?). Aanbevelingen formuleren - ondersteund met een proof-of-concept - hoe met de huidige generatie smart glasses AR zodanig geïmplementeerd kan worden dat het de best mogelijke gebruikerservaring oplevert op smart glasses. - Onderzoeken hoe de huidige problemen m.b.t. te hoge processor- & batterijbelasting in AR-modus kunnen opgelost of toch op zijn minst beperkt kunnen worden. Dit kan gebeuren door het vergelijken van de verschillende bestaande AR-SDK’s op dit vlak, het gebruiken van workarounds, zoals sleep modus, enz. - Onderzoeken hoe de herkenning van AR-markers of barcodes/QR-codes kan geoptimaliseerd worden, door het vergelijken van de verschillende AR-SDK’s op dit vlak en door het zoeken naar manieren om de herkenning te faciliteren (zoomen, belichting, …). Streaming & video-conferencing op Google Glass Begeleiders: Luc Peeters (Augnition), Jonas El Sayeh Khalil, Ignace Saenen, Ruben Verhack Promotor: Peter Lambert and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 2 Aantal masterproeven: 1 Contactpersoon: Luc Peeters Trefwoorden: Locatie: Zuiderpoort, thuis Context & probleemstelling Een interessante toepassing van Smart Eyewear, zoals Google Glass, is het doorsturen van beelden vanuit de ‘point-of-view’ van de drager van de bril. Dit biedt mogelijkheden voor tal van toepassingen, gaande van media (mediagenieke beelden live doorsturen, bv. tijdens een sportprestatie van een atleet), e-learning (studenten volgen bv. een operatie uitgevoerd door hun professor-chirurg) of field service (remote expert geeft real-time support, door ‘mee te kijken’ met de field technician). Probleem is wel dat de standaard tools voor dit soort van toepassingen dikwijls een matige kwaliteit geven. Bv. in het geval van Google Glass ondersteunt dit device standaard enkel ‘Google Hangout’. Ook al is dit een zeer handige & veelzijdige tool, de kwaliteit is te beperkt voor bijvoorbeeld HDstreaming toepassingen, waar het belangrijk is om een beeld te krijgen met een haarscherpe resolutie. Google Hangout biedt immers weinig mogelijkheden om een scherp HD-beeld zonder haperingen te garanderen. Doelstelling Onderzoeken hoe de kwaliteit van zowel live streaming (one-to-many & one-way) als videoconferencing (two-way & multi-user) kan verbeterd worden door gebruik te maken van streaming (HTTP-live streaming e.a.) en standaarden voor video-conferencing die niet standaard ondersteund worden op Google Glass, maar die wel hun nut reeds bewezen hebben op het web of op mobiele toestellen. Een mix samenstellen van codec / protocol / streaming server … op basis van een proof-of-concept die de beste resultaten geeft qua beeldkwaliteit en betrouwbaarheid (geen haperingen). Anarchy in the meeting room Supervisors: Gauthier Renard (Barco) and Sebastiaan Van Leuven Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Sebastiaan Van Leuven Keywords: Location: Zuiderpoort, home Problem Definition: Visualize your default meeting. Often, one presenter will tell you about his story showing the slides he prepared in the order that he chose to present them or a group of people will work together on a shared document hosted and controlled by one of the team members. In a more advanced case, multiple screens can be shown or used in a meeting room, but each of them is still controlled by the host of the content in a very static way. Now imagine a meeting room with multiple screens. Any of the participants can put any content (local, online or cut out of a presentation) on any of these screens or push it to the meeting room’s basket of presentable content. Any participant can access and change any of these contents, make annotations or highlight content on the screen and can put this content on his/her own computer or mobile device and make his/her own annotations or report. The meeting room itself can also contribute to the meeting by recognizing/analyzing the content and suggesting additional content (images, translations, additional info, trends...) and by giving hints on possible distribution of the content onto the different screens. All of this should not only be possible when all participants are used or prepared for this kind of meetings/meeting rooms, but when a traditional presentation is given, the framework should enable this kind of meetings by detecting features automatically. Goals The description above is the ultimate solution. In the thesis, the student can focus on one or more aspects and is more than welcome to incorporate his/her own vision into the project. The aspects on which the student can work on include: feature detection, context detection, screen usage optimization, user interfaces and interaction, the control platform and many others. Multiple students can easily work together or each focus on a separate subject. Technologies that can be used in this thesis are: web technologies (HTML5, NodeJS, …), cloud technologies (Azure, Amazon, Google,…), OpenCV, C/C++ and others if interested (C#, QT C++, OpenGL, OpenCL/CUDA, …) Linking Twitter messages to TV video fragments Supervisors: Fréderic Godin, Baptist Vandersmissen, Wesley De Neve Promoters: Erik Mannens and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 2 Contact Person: Fréderic Godin Keywords: social media, Twitter, text analysis, video analysis Location: Zuiderpoort, home Problem Definition: Every day, many TV shows are broadcasted worldwide. During live events such as music concerts or sport events, many unscripted events happen. After the broadcast, the whole TV show needs to be annotated by professionals in order to make the content searchable. This is, however, a very timeconsuming and expensive task. Goal: The goal of this master's thesis is to automatically annotate video sequences of live TV shows by making use of the collective knowledge available on the web. During these live events, a lot of microposts are posted on social networks such as Twitter that describe what is happening on TV. These microposts can therefore be used as an important source of information to describe the video content. An interesting possibility would be to match the names mentioned in the microposts with the faces in the video sequence. Matching over 7 billion faces with the video sequence is an impossible task. However, by making use of the names mentioned in the microposts by the TV audience, only a limited number of faces need to be matched. Based on a study of the state-of-the-art and personal interests, the student has the freedom to decide which algorithms will be developed. If you are interested in this master's thesis or if you have a clever idea yourself in the area of social media analysis, feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or to send me an e-mail at [email protected] Video processing for interactive visualization of spherical or 360° video Supervisors: Glenn Van Wallendael and Niels Van Kets Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Glenn Van Wallendael Keywords: spherical video, video processing Location: Zuiderpoort, home Problem Definition: In the future, video will not be displayed on a flat surface like a TV. There will be 360° video in which you can look around freely. For this purpose, TVs are getting curved, virtual reality glasses like the Oculus Rift are invented and videos get projected on spheres around viewers. Whatever the practical solution for display will be, numerous challenges exist about providing this user with the best possible visual experience. In an ideal world where there are no practical limitations, the entire 360° video can be provided to the end user device without any quality sacrifices. In the real world, on the other hand, every resource is limited, but optimizations can be found in the characteristics of this 360° video, the video content and his observer. For example, did you ever look at the eye movement of a person turning his head. The eyes will stay focused on an object and while the head turns different objects along the way will be fixed. Therefore, the importance of predicting the focus points of where the observer is going to watch becomes more important. Additionally, when the observer keeps his body stationary, he is only able to turn his head 180°. With a movie that triggers his will to look around, the observer could start looking around further and be more active. But more actively looking around blurs the observation capacity, so a trade-off can be made. Finally, there is the additional advantage that the left side of the movie is connected to the right side because it represents a sphere. This property is not being used in today regular video coders. Goal: In this work, the student tries to progress the scientific field of 360° video coding, transmission and interactive visualization. In video coding perspective, the regular video gets extended with 360° properties. To improve this 360° video experience, the restrictions of eye and head movement must be taken into account. Viewpoint selection for high resolution video Supervisors: Niels Van Kets and Glenn Van Wallendael Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Niels Van Kets Keywords: High resolution video, 2nd screen, user Location: Zuiderpoort, home Problem Definition: In the field of video processing, over the last decades the resolution of capturing and playback has been increasing dramatically. In the field of video capturing, this increase of pixels means a large increase in capturing angle. For the future 8K cameras it would be even possible to capture an entire soccer field with a fixed top shot camera and with enough detail. Since typical home users won’t adopt an 8K device, it could be possible to create an interactive viewpoint selector where the user can choose its place on the field, zoom in on actions they find interesting and bring the live event experience to the home. Goal In this master’s thesis we would like to investigate a second screen solution where the viewer can select his/her viewpoint in the high resolution video based on gestures on a mobile device (e.g. iPad or Nexus Tablet). This algorithm selects a part of the video and converts it to a common consumer resolution (such as full HD). This algorithm should be able to work interactively and should give the user an extra real-time experience of their content. Linked open data als hulpmiddel bij kernwoordextractie op een imperfecte transcriptie Begeleiders: Ruben Verborgh and Marieke Lycke (VRT) Promotor: Erik Mannens and Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 Aantal masterproeven: 1 Contactpersoon: Erik Mannens Trefwoorden: Locatie: Zuiderpoort, thuis Probleemstelling Om een bepaald content-item in een grotere set terug te vinden, plaatst een omroep kernwoorden en een korte beschrijving bij elk item. Alle content manueel van kernwoorden voorzien is echter zeer tijdrovend. Daarom wordt momenteel in de richting van (semi-) automatische annotatiemethodes gekeken. Spraakherkenning is zo’n methode. Deze schrijft de spraak automatisch uit in een transcriptie. De gezochte kernwoorden zijn dan de relevantste woorden uit deze transcriptie. Hier duiken evenwel twee problemen op. Het eerste probleem ontstaat doordat de transcriptie niet perfect is. Deze imperfectie brengt mogelijk foute kernwoorden naar voor. Daarnaast – het tweede probleembevat een transcriptie uiteraard enkel uitgesproken kernwoorden. Nochtans zou het detecteren van gerelateerde termen, bijvoorbeeld synoniemen, ook een meerwaarde kunnen bieden bij het zoeken in grote mediabibliotheken. Doelstelling In deze masterproef willen we nagaan hoe linked open data kan bijdragen tot een meer accurate en betrouwbare automatische kernwoordextractie. Daarvoor dient het volgende te worden onderzocht: (i) een state-of-the-art studie naar linked open data binnen de Nederlandse taal, (ii) de mogelijkheden voor het automatisch uitbreiden van deze linked open data, (iii) een manier om met linked open data het aantal foute kernwoorden te reduceren en (iv) de mogelijke kernwoorden uit te breiden met gerelateerde kernwoorden. Uiteindelijk wordt een algoritme ontwikkeld die relevante en gelinkte kernwoorden genereert uit een mogelijk imperfecte spraaktranscriptie. Drone mesh algorithm for live (sport) events Supervisors: Niels Van Kets, Ruben Verhack, Glenn Van Wallendael Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 2 Number of theses: 1 Contact Person: Niels Van Kets Keywords: Drone, live, video, captation, algorithms Location: Zuiderpoort, home Problem description In sports broadcasting, typically a large amount of camera’s is placed on fixed locations next to, or in the large presence of the field. These cameras are limited in movement and can only pan, tilt and zoom in. This concludes in a fixed amount of possible viewing possibilities. Drones on the other hand, are not bound on location and could change this rather static video capturing by actually following the action. In television making, drones tend to change the way we will watch sports in the future. These nimble and highly moveable devices could change sports as we know it into a more action enabled viewing experience. Goals In our scenario, we start from a large sports field where typically fast movements and unpredictable game evolution are key features (e.g. soccer). Above this soccer field, drones with mounted cameras are applied to capture live images. In this master’s thesis, we would like to develop an algorithm that calculates the best position for a fixed amount of drones capturing video of a soccer field. This algorithm should make sure that our drones are capturing as much area as possible of our field without colliding into one another. Typically if a broadcast director chooses one of the drones to move, the algorithm should calculate the paths of all the other drones to make sure the maximum coverage condition is met. Robuuste detectie en reconstructie van beschadigde digitale videobestanden Begeleiders: Patrick De Smet (NICC) en Glenn Van Wallendael Promotor: Peter Lambert en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: videoanalyse en –verwerking, videoreconstructie Locatie: Zuiderpoort, thuis Probleemstelling In onze hedendaagse werk- en leefomgevingen wordt steeds vaker nog uitsluitend gebruik gemaakt van digitale technieken voor het opnemen en bewaren van audio- en videodata. Hierdoor groeit ook steeds meer de vraag naar nieuwe mogelijkheden om deze digitale informatie snel en nauwkeurig te kunnen analyseren in het kader van gerechtelijke onderzoeksopdrachten. Een bijzonder deelprobleem hierbij is dat bepaalde digitale informatie vaak zo goed als onbruikbaar geworden is ten gevolge van het al dan niet opzettelijk en geheel of gedeeltelijk wissen of overschrijven van de bestanden, het slecht functioneren of het optreden van beschadigingen aan de informatiedragers en/of de beschikbare hardware, enz. Bijgevolg is het opsporen en gedeeltelijk herstellen van de nog resterende beschadigde informatie een belangrijk probleem waarmee politiediensten en gerechtelijk deskundigen geconfronteerd kunnen worden bij het onderzoeken van allerlei teruggevonden of in beslag genomen multimediaspelers en dragers, computersystemen, enz. Doelstelling De doelstelling van deze masterproef is een aantal softwaretechnieken uit te denken en te implementeren die toelaten om in bepaalde “datadumps” de beschadigde digitale videobestanden op een betrouwbare manier terug te vinden, gedeeltelijk te herstellen, en te decoderen. Voor deze thesis zal samengewerkt worden met het Nationaal Instituut voor Criminalistiek en Criminologie (http://nicc.fgov.be/). Het NICC is een wetenschappelijke inrichting binnen de F.O.D. Justitie, waar men forensisch onderzoek verricht in opdracht van en in samenwerking met de gerechtelijke overheden en politiediensten. Game theory for multimedia distribution Supervisors: Jan De Cock and Glenn Van Wallendael Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 2 Number of theses: 2 Contact Person: Niels Van Kets Keywords: Location: Zuiderpoort, home Problem definition The fair allocation of scarce resource to multiple (self-interested) agents leads to a complex optimization problem, which can be regarded as ‘games’ between these agents. The foundations for game theory were laid by John Von Neumann, and its further development (e.g. by John Nash, see figure) led to applications in various domains such as economics, politics, and biology. More recently, a number of studies have reported the benefits of game-theoretic approaches in networked multimedia environments. In these cases, resources (e.g. available bandwidth, computational resources etc.) have to be shared by multiple agents/players. Depending on the use case, a different type of game can be played ((non-)cooperative, repeated, static/dynamic etc.). The goal of these games is to derive an equilibrium strategy for its participants which provides an optimal payoff or utility. Goal In this thesis, the use of game-theoretic approaches will be investigated in a networked multimedia environment. By deriving equilibrium strategies, an optimal quality level for its participants (e.g. for multiple users requesting high-resolution video streams) can be obtained. The benefits of these approaches over more traditional optimization techniques will be investigated. Furthermore, the thesis can look into dynamic approaches, which can take into account time-varying characteristics of the multimedia content. Cloud based content delivery Supervisors: Gauthier Renard (Barco) and Sebastiaan Van Leuven Promoters: Peter Lambert and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 2 Number of theses: 2 Contact Person: Sebastiaan Van Leuven Keywords: Location: Zuiderpoort, home Problem definition The move towards lower end portable consumer devices and networked image consumers brings new challenges when dealing with high-end applications. A person might for example want to see a composition of a high number of inputs of high resolution and exotic formats onto his consumer grade tablet. As this device has neither the processing power nor the network capabilities to do this, but does have a fully capable HTML5 browser at its disposal, a cloud based approach is needed. When multiple streams from different locations send their input streams to one or multiple servers, the streams should not simply be sent to each location in the same format. One might want some streams in higher quality or low latency and other streams are less critical and can thus have higher compression. Also, when the video consumer only needs this stream in a small format, there is no need to send it at full resolution. Some streams will be critical and when the network speed drops, all other streams could be sent with much higher compression or not be sent at all. Goal In this thesis, a framework should be made that takes a number of streams (from the network or local) as input, does some processing on them and delivers the result in a browser-friendly manner. The settings and behavioral rules of this processing (resolution, composition, quality, priority) should easily be set for each consumer and the whole delivery system should be adaptive to changing network situations in compliance with the defined rules. Technologies that can be used in this thesis are: web technologies (HTML5, JS), cloud technologies (Azure, Amazon, Google,…), GStreamer, C/C++ Lowcost multirate video transcoder with parallel hardware acceleration Supervisors: Michael Catrysse (Televic) and Glenn Van Wallendael Promoters: Jan De Cock and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Glenn Van Wallendael Keywords: Location: Zuiderpoort, home Problem definition People want to use their own mobile device for assisting for instance to a conference. One of the key topics is video with an as short as possible delay and as good as possible quality Goal The purpose of this project is a study and an implementation of this challenge. The content of the project is 1. to investigate the possibilities to provide multiple quality versions of the same video stream using low cost hardware modules and 2. to implement this project for the IOS system with a as short as possible delay using the Intel Bay Trail hardware. Patient record notes through speech to text conversion Supervisors: Michael Catrysse (Televic) Promoters: Kris Demuynck and Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 Number of theses: 1 Contact Person: Michael Catrysse Keywords: Location: Zuiderpoort, home Problem definition Televic Healthcare offers communication solutions for hospitals, elderly homes and service flats, tailored to the need and use to a specific application. Each room is equipped with one of our room terminals which are used as the main access point for the nurses to the institutions central care registration application. The goal of the care registration is that all tasks the care givers need to execute on a patient can be in a list displayed on the room terminal. Once a task is executed the nurse can indicate the task has been executed. This allows structured and central management and registration of the care given to patients. But the care registration interface is limited in fields and possibilities. In a lot of cases the care giver would like to add notes about the patients or the treatment. At this moment these commands have to be added through an on screen keyboard or through a PC in the nurse room. Goal The goal of this thesis would be to investigate and create a system that allows the conversion from speech to text so the notes can be added to the patient record in a more user friendly way. The thesis can be divided into a few steps: 1. Investigate what possibilities currently exist to convert speech to text. How can these technologies be integrated into our system. Can they run on the Linux terminal itself or should it run on our central server? 2. Evaluate the performance of a few preferred technologies. 3. Integrate this speech to text conversion into our current application so it can be used for real life tests. Real time Ultra HD video compression using hardware/software codesign Begeleiders: Glenn Van Wallendael Promotor: Jan De Cock and Rik Van de Walle Doelgroepstudenten: Master in de ingenieurswetenschappen: Computerwetenschappen, Master in de ingenieurswetenschappen: elektrotechniek Aantal studenten: 1 Aantal masterproeven: 1 Contactpersoon: Glenn Van Wallendael Trefwoorden: SoC development, Ultra HD, video compression Locatie: Zuiderpoort, thuis Problem definition Because of the ever increasing resolution of video, software based solutions are not capable of encoding video in real time anymore. One solution would be to make the compression algorithm parallel and execute everything on GPUs or hardware. The problem with video compression and compression in general is that a compression algorithm only works optimally in a serial way. Serial processing enables the compressor to learn from previous decisions with a smaller size as a result. Still, some parts of the video encoder can be handled in parallel like the motion estimation and the intra prediction. Therefore, the ideal solution would be to have a software/hardware codesign in which the general structure is kept serial with a lot of parallel hardware assistance. For this purpose, specialized chips are developed which include an ARM processor combined with hardware programmable parts (FPGA). With both parts available on a single chip, the hardware and software processing can be combined efficiently. Goal During this thesis, the possibilities for hardware/software combined design of the state-of-the-art High Efficiency Video Coding (HEVC) will be investigated. For this purpose, the student can start from the open-source reference software for HEVC video compression (https://hevc.hhi.fraunhofer.de/trac/hevc/browser/trunk). This software can then be run on the internal processor of the specialized Xilinx Zynq-7000 System on a Chip. This SoC then gives the possibility to execute certain parts in hardware. Doing this efficiently will be the main challenge in this thesis. Semantic Web Technologies for Natural Language Understanding Supervisors: Gaëtan Martens (Nuance Communications) Promoters: Wesley De Neve en Rik Van de Walle Study Programme: Master Computer Science Engineering, Master Mathematical Informatics Number of students: 1 or 2 Number of theses: 1 Contact Person: Gaëtan Martens ([email protected]) en Wesley De Neve Keywords: Natural Language Processing & Understanding, Sematic Web, data annotation, machine learning Location: Zuiderpoort, home Problem definition Nuance Communications is the market leader in Natural Language Processing & Understanding (NLP/NLU) and delivers currently the most significant advancements in speech recognition technology. NLU is a field of computer science, artificial intelligence, and linguistics concerned with the interactions between computers and human (natural) languages. As such, NLU is related to the area of humancomputer interaction. NLU algorithms are based on machine learning to automatically learn rules through the analysis of large corpora. As a result, these corpora need to be carefully annotated. However, manual data annotation is an error-prone and very costly process and therefore it is important to be able to minimize manual data annotation efforts and to maximize data re-usability. The quality of the data is crucial for the accuracy of the models obtained by applying machine learning techniques. Goal: In this master’s thesis, the goal is to use Semantic Web technologies to facilitate the data annotation process. By using ontologies, the manual data annotation effort can be significantly reduced while maintaining maximal annotation consistency. These annotations can then be used to train a classifier and to eventually build an NLU model. The student(s) will work on ontologies and developing annotation mechanisms using real-world data (provided by Nuance) and then validate the efficiency by training and testing an NLU model. Gepersonaliseerde en dynamisch opgebouwde monitoring dashboards Begeleiders: Ruben Verborgh Promotor:Sofie Van Hoecke en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Ruben Verborgh Trefwoorden: Web APIs, Dynamische compositie, Personalised dashboards, GUI development, Data mining, Service-oriented architectures Locatie: Zuiderpoort, Campus Kortrijk, thuis Probleemstelling Vandaag de dag is er een overvloed aan content, services en functionaliteit, beschikbaar via private en/of publieke services (SOAP, REST), alsook Web APIs. Door ook sensoren als Web API’s te implementeren, kunnen er geavanceerde service composities en mashups van deze services en sensoren gemaakt worden, alsook geavanceerde reasoning gebeuren op de fusion van deze sensordata. Een mogelijke toepassing is te vinden in smart home surveillance waar de combinatie van video sensoren (cameras) en niet-video sensoren (zoals temperatuur, geluid, hartslag) leidt tot het detecteren van complexe events. Een andere toepassing is te vinden in condition monitoring van offshore windturbines. Door klassieke condition monitoring sensoren (vibratie, acceleratie, geluidsemissie, olie-analyse) te combineren met thermische beelden, kunnen fouten in de windturbines sneller opgespoord worden en ook beter gelokaliseerd worden met een betere prestatie en opbrengst van de windturbine tot gevolg. Beide toepassingen vereisen monitoring dashboards die op een gebruiksvriendelijke manier net die data tonen aan de gebruiker waar zij in interesse hebben. Door de overload echter aan services, sensoren en Web API’s, is het onmogelijk vaste dashboards te maken die alle relevante data tonen. Voor de smart home surveillance toepassing is het eenvoudig in te schatten dat het dashboard voor de behandelende arts er totaal anders dient uit te zien dan het dashboard voor de mantelzorger. Bij offshore condition monitoring is dat niet anders: onshore personeel dient via het dashboard vlot foutopsporing te kunnen doen, maar wanneer nodig ook perfect een bootlanding voor te bereiden. Doelstelling Het doel van deze masterproef bestaat er in te onderzoeken hoe dashboard dynamisch opgebouwd kunnen worden op een persoonlijke wijze. Door semigeassisteerde mashups te creëren, krijgt elke gebruiker, of rol van gebruikers, zijn ideale dashboard dat net die service- en sensordata, maar ook adhoc mashup-data visualiseert waar de gebruiker op dat moment interesse in heeft. Deze thesis geeft je de kans om je kennis van service-oriented architecturen aan te scherpen en meer specifiek een grondige ervaring op te doen rond Web APIs, semantiek, dynamische compositie, datamining en GUI development. Naast het uitvoeren van onderzoek in dit domein, zal je ook een proof-of-concept GUI ontwikkelen voor één van beide toepassingen naar keuze. Multimodale emotieherkenning in tekst Begeleiders: Olivier Janssens Promotor:Sofie Van Hoecke en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Olivier Janssens Trefwoorden: Multimodaal, Emotieherkenning, Machine Learning, Twitter Locatie: Zuiderpoort, , Campus Kortrijk, thuis Probleemstelling Vandaag wordt meer en meer inhoud (content) dynamisch aangepast aan de gebruiker. Voorbeelden zijn Amazon en Netflix die producten voorstellen op basis van de gebruiker zijn interactie met hun systeem. Maar dit is nog maar het begin. Content kan ook dynamisch gegenereerd worden binnen elearning-applicaties, waarbij de vragen aangepast worden aan de gebruiker zijn capaciteiten, maar ook emotionele toestand; eHealth-toepassingen, voor de detectie van depressie; computerspellen, waarbij de moeilijkheid aangepast wordt aan de emotionele toestand van de speler; of marketing, waarbij reclame wordt aangepast aan hoe de gebruiker zich voelt. Voor een correcte interpretatie van de gebruiker zijn beleving van de content, is het herkennen van de gebruiker zijn emoties noodzakelijk. Doelstelling Bestaande emotieherkenningssystemen in tekst kijken vooral naar de tekst zelf en wat de gebruiker dus typt. Binnen deze masterproef zal onderzoek gedaan worden naar een multimodale methode om real-time emoties te herkennen in tekst door het combineren van een keystroke dynamics analyse met de inhoud van de tekst zelf. Hierbij zal gekeken worden naar WAT de gebruiker typt, alsook HOE de gebruiker de tekst typt. Door multimodaal te werken en beide methodes te combineren, zal de accuraatheid van de emotiedetectie verhoogd kunnen worden. Een mogelijke use case waarop de ontwikkelde methode uitgetest zal worden, is het automatisch detecteren van de onderliggende emotie bij tweets. Het onderzoek zal starten met een literatuurstudie waarbij zal gekeken worden naar bestaande technieken voor emotieherkenning in tekst. Op basis van de resultaten uit het literatuuronderzoek, dient een multimodale methode ontwikkeld te worden met als doel in realtime emoties te detecteren in tekst. Daarenboven dient ook een dataset opgesteld te worden om toekomstige emotiedetectiemethoden te kunnen vergelijken. Visuele authentieke real-time emotieherkenning Begeleiders: Olivier Janssens Promotor:Sofie Van Hoecke en Rik Van de Walle Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master in de wiskundige informatica Aantal studenten: 1 of 2 Aantal masterproeven: 1 Contactpersoon: Olivier Janssens Trefwoorden: Machine Learning, Image Processing, Computer Vision, Emotieherkenning, Facial Expression, Social Robotics Locatie: Zuiderpoort, Campus Kortrijk, thuis Probleemstelling Vandaag wordt meer en meer inhoud (content) dynamisch aangepast aan de gebruiker. Voorbeelden zijn Amazon en Netflix die producten voorstellen op basis van de gebruiker zijn interactie met hun systeem. Maar dit is nog maar het begin. Content kan ook dynamisch gegenereerd worden binnen elearning-applicaties, waarbij de vragen aangepast worden aan de gebruiker zijn capaciteiten, maar ook emotionele toestand; eHealth-toepassingen, voor de detectie van depressie; computerspellen, waarbij de moeilijkheid aangepast wordt aan de emotionele toestand van de speler; of marketing, waarbij reclame wordt aangepast aan hoe de gebruiker zich voelt. Voor een correcte interpretatie van de gebruiker zijn beleving van de content, is het herkennen van de gebruiker zijn emoties noodzakelijk. Bestaande emotieherkenningssystemen slagen er al in met hoge accuraatheid de emotie van de gebruiker te detecteren. Nadeel aan deze systemen is echter dat ze werken met geposeerde data, foto’s en video’s en/of niet in real-time werken waardoor deze oplossingen niet bruikbaar zijn binnen effectieve toepassingen. Doelstelling Binnen deze masterproef zal onderzoek gedaan worden naar real-time authentieke emotieherkenning op basis van de gezichtsuitdrukking van de gebruiker. Voor deze masterproef kunnen bestaande datasets gebruikt worden zodat de focus van de masterproef ligt op het ontwikkelen van de emotieherkenningsmethode. Het onderzoek zal starten met een literatuurstudie waarbij zal gekeken worden naar bestaande technieken (realtime vs. niet-realtime, authentieke data vs. geposeerde, nietauthentieke data). Op basis van de resultaten uit het literatuuronderzoek, dient een methode ontwikkeld te worden met als doel in realtime authentieke emoties te detecteren in videobeelden. De student kan ook een proof-of-concept bouwen door de ontwikkelde methode te integreren in de Ono-robot (http://www.youtube.com/watch? v=u6DvuMxaMzQ), een robot ontwikkeld binnen de vakgroep die emoties kan uitdrukken. Door deze robot uit te breiden met een camera sensor, zou bijvoorbeeld Ono de gedetecteerde gezichtsuitdrukking kunnen nadoen.
© Copyright 2024 ExpyDoc