Thesis subjects Multimedia Lab 2014-2015

Ghent University – iMinds – Multimedia Lab
Master thesis subjects 2014 - 2015
The Machine-Understandable Book
Supervisors: Tom De Nies and Miel Vander Sande
Promoters: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Tom De Nies
Keywords: books, cross-media, eBook, machine-understandable, Semantic Web, enrichment, Web
Location: home, Zuiderpoort
Problem definition:
Publishers of digital books are struggling to convince their customers of the added value of digital
books. Often, an eBook is simply a digitized version of the same book printed on paper. However, there
is much more potential in digital books that remains to be unlocked. One of these aspects is the
concept that a book cannot only be understood by humans, but also by machine agents, such as
software or agents. This machine-understandability adds many advantages to digital books, such as
the increased discoverability, but also the possibility to dynamically add or change content inside a
book.
Goal:
The goal of this master’s thesis is to (semi-)automatically convert a regular book to a machineunderstandable one, as accurately as possible. This means that the student will have to become
acquainted with several techniques in the Natural Language Processing domain, as well as master
concepts of the Semantic Web, including annotation in RDFa and intelligent querying of triplified data.
The eventual outcome of the thesis will be a working proof-of-concept software, that converts a book
into machine-understandable form, and a demonstrator that showcases the advantages of this book,
compared to the regular book. Additionally, an evaluation will be performed to measure the accuracy of
the conversion.
Automatic Newsworthiness Assessment of Journalistic Content
Supervisors: Tom De Nies and Fréderic Godin
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Tom De Nies
Keywords: assessment, journalism, news, Semantic Web, enrichment, Web
Location: home, Zuiderpoort
Problem definition:
Journalists and news editors are currently faced with an information overload. Compared to one or two
decades ago, they are required to process information from much more channels, including social
media, news feeds, television, blogs, etc. However, they do not receive more time to process this
information, on the contrary! Their audience, the consumers of news, expect news to be delivered nearinstantaneously, and accurately. This paradox leads to a significant need for services to aid journalists
with selection of newsworthy sources, and assessment of the content they produce themselves.
Goal:
In this master’s thesis, the goal is to research which criteria determine the newsworthiness of a news
article, and whether these can be assessed automatically. This means that the student will have the
opportunity to work with concepts from the the following domains: Natural Language Processing,
keyword and topic extraction, Semantic Web, machine-learning, classification, etc.
Eventually, the result of the master’s thesis will be a proof-of-concept software and/or service, that
allows the automatic assessment of the newsworthiness of a random news article. This proof-ofconcept will be evaluated objectively and subjectively. Objectively, the accuracy of the detection
components will be tested, whereas subjectively, the automatic assessment will be compared to a
human assessment, made by domain experts.
Ontdekken en visualiseren van betekenisvolle verbanden tussen entiteiten in grote datasets.
Begeleiders: Laurens De Vocht
Promotoren: Erik Mannens en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Laurens De Vocht
Trefwoorden: semantische analyse, linked data, zoektechnologie, heuristische pad optimalisatie, web
services, Big Data
Locatie: Zuiderpoort, thuis
Probleemstelling:
Om relevante, onrechtstreekse en niet voor de hand liggende verbanden te vinden tussen meerdere
entiteiten in grote datasets hebben we betekenisvolle paden nodig. Het verband tussen de Golden
Gate Bridge in San Francisco en de Eiffeltoren dat ze beiden toeristische trekpleisters zijn is beperkt
relevant, al iets interessanter is dat Betrand Delano (politieker in Parijs) en Tom Ammiano (politieker in
San Francisco) beide katholieken zijn. Dit is al een goed begin, toch het is al bijzonder indrukwekkend
dat een algoritme dergelijk verband kan onthullen. Dit is mogelijk dankzij kennis uit datasets die
semantisch beschreven en verbonden worden: linked data.
Met deze techniek kan uiteindelijk, afhankelijk van de context en gebruiker, het pad gepersonaliseerd
worden indien op voorhand ook gedefinieerd wordt welke soort verbanden en type resources
doorslaggevend zijn.
Doelstelling:
In deze masterproef ga je je inwerken in de wereld van de zoektechnologie, semantisch web en Big
Data, om met deze kennis te onderzoeken welk methodes kunnen bijdragen aan een systeem dat de
betekenis van de verbanden tussen entiteiten in rekening brengt bij het zoeken. De bedoeling is om de
resulterende verbanden op een effectieve manier weer te geven zodat gebruikers efficiënt relaties
kunnen ontdekken in grote datasets.
Interactive Storytelling with Big Data
Supervisors: Laurens De Vocht en Miel Vander Sande
Promoters: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Laurens De Vocht
Keywords: Storytelling, Information Retrieval, Big Data, Linked Data, Pathfinding, User Interaction
Location: home, Zuiderpoort
Problem definition:
The number of resources that are now available to users on the Web, is rapidly expanding. Although
Big Data may be structured and even linked, the underlying structure still looks like a maze to most
users. Relations and paths between those resources are thus not always easily discoverable, and
rarely come with strong support for identifying, comparing and associating the ones that can be most
beneficial to the user. Such tasks depend not only on the profile of the user, but also on the expertise
they have already acquired, their history, their search goals, and the way resources relate in a coherent
and effective story.
You will investigate an approach to influence the generation of stories in real-time by a user. Each story
can be seen as a useful/relevant re-combination of multiple associated paths between resources, for
example:
Trivia Finding / Personalized Story: DBpedia (Structured version of Wikipedia)
Research 2.0: Recreate Events (Conferences) based on data of Web Collaboration Tools, Digital
Libraries, Linked Open Data…
Goal:
In the master’s thesis the goal is to generate stories which are both relevant to the user and coherent.
This includes an optimization on how the users intervene in the story, without violating any rules of the
context in which it is applied (e.g. chosen topics, required resources). The outcome of this algorithm
should be a framework so that users can find not trivial relations in a specific context and reveal
semantic associations in Big Data.
It is already possible to deliver simple stories such as: “Tell me about how am I connected to 'Mickey
Mouse' ?” or “Tell me how 'Mickey Mouse' is connected to 'Paris' ?”. But this could be improved to
answer more complicated questions like: “What is the most 'connected' person connecting 'Paris' and
'Washington DC' and why?”, “Tell me more about the World Wide Web Conference in 2012, what was
presented there that is related to 'my' projects and interests (right now) and 'why'.”
Realtime Analytics of Scholarly Communication via Web Collaboration Tools
Supervisors: Laurens De Vocht
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Laurens De Vocht
Keywords: Web 2.0, Research 2.0, Scholars, Web of Data, Collaboration Tools, Social Media
Location: home, Zuiderpoort
Problem definition:
Publication repositories and online journals all have search engines to help scholars find interesting
resources. However, these approaches are often ineffective, mostly because scholars: (i) only look-up
resources based, at best, on their topics or keywords, not taking into account the specific context and
the scholar's prole; (ii) are restricted to resources from a single origin. Of course, aggregators exist that
index resources from multiple sources. The challenge is therefore in matching research needs and
contexts to opportunities from multiple, heterogeneous sources. In other words, we should make the
most of the wealth of resources for research through relating and matching their scholar prole with the
online available resources, publications and other scholar's profiles.
Goal:
Combine streams of Web Collaboration Tools and Social Media such as Twitter or Mendeley to track
scientific communication and align it with the Web of Data (e.g. COLINDA, DBLP, PubMed). This allows
developing an efficient model and a useful environment for scholars. The environment needs enough
incentives for the users to remain synchronized and interact with others. The scholar’s personal
research library and preferences could be matched with the those of other users. This allows links to be
made to social and research data beyond a single scholar’s scope. This should lead to more finegrained details facilitating scholars to obtain a more sophisticated selection and linking of contributed
resources based on previous assessments and explored links.
Interactive Exploration Workflow for Linked Data
Supervisors: Laurens De Vocht and Anastasia Dimou
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Laurens De Vocht
Keywords: Linked Data, Exploratory Search, Infromation Visualization, Interactivity, Discovery
Location: home, Zuiderpoort
Problem definition:
Linking Open Data increases the Open Data potential as the data are semantically represented and
interlinked among each other to describe a certain knowledge domain in a complementary way instead
of offering fragmented parts of information. However, while more and more data are semantically
represented and interlinked, non-Semantic Web experts do not have the means to discover and explore
the data. Visual representation demonstrate multiple aspects of the data while controlling its views
which is adequate for the LOD need to additionally reveal their links.
Goal:
A visual interactive exploration workflow that is data and schema agnostic so it can be easily
transferable to other datasets. This workflow integrates different user-centric views on the same dataset
to highlight different aspects. All these views need to be aligned according to a workflow optimized for
the target user. Multiple Coordinate views based on aggregated data should be applied using the same
methodology on a completely different dataset. This will impact the workflow.
Pre-analysis of Big Data graphs to generate visual abstractions
Supervisors: Anastasia Dimou, Laurens De Vocht, Miel Vander Sande
Promoters: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Anastasia Dimou
Keywords:
Location: home, Zuiderpoort
Problem definition:
Linking Open Data increases the Open Data potential as the data are semantically represented and
interlinked among each other to describe diverse knowledge domains in a complementary way.
However, non-Semantic Web experts do not have the means to discover and explore the published
data. Visual graph representations demonstrate multiple aspects of the data but do not scale well for
large datasets, ending up to very dense and large graphs that are not comprehensive for the end users.
In order to deal with this problem, most of the current solutions rely on visualizing hierarchical
structures. Converting a graph to a tree representation is not ideal as most of the semantics are lost.
Goal:
In this master’s thesis, the goal is to investigate the analysis of a certain dataset to automatically
identify its data structure. Considering its data structure, the resources that are interesting to be
visualised and their relations to other resources will be identified to be demonstrated. But in order to
reduce the graph’s complexity, the concepts might also need to be grouped and aggregated.
Turning Big Data to a Semantic Gold Mine
Supervisors: Anastasia Dimou, Miel Vander Sande, Laurens De Vocht
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Anastasia Dimou
Keywords:
Location: home, Zuiderpoort
Problem definition:
Despite the significant number of existing tools, incorporating data from multiple sources and different
formats into the Linked Open Data cloud remains complicated. In real-world situations, multiple sources
of different formats are part of multiple domains. The processing level adds further complexity as it
demands efficient planning of processing to support multiple, diverse and large files.
Goal:
In this thesis, you research mapping-driven approaches where the processing of input data is driven by
the mapping document. You investigate how to perform an efficient execution plan that arranges the
execution order of the mappings. The focus is on distributed and parallel processing of the extracts of
the sources to be mapped in a streaming approach for optimal performance with Big Data.
Normalization and Enrichment of HTML for machine-understandable websites
Supervisors: Ben De Meester, Tom De Nies, Ruben Verborgh
Promotor: Wesley De Neve en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ben De Meester
Keywords: HTML5, CSS3, metadata, normalization, W3C
Location: home, Zuiderpoort
Problem definition:
The web consists of an enormous amount of structured and unstructured data. Structured data can be
used by machines to automatically retrieve and process data to increase their ease of use (think of the
NMBS-apps and pizza.be-like websites). However, most data on the Web is currently still available in
(unstructured) HTML. HTML is, unlike XML, a very ‘forgiving’ language concerning ending tags and
hierarchy restrictions, which makes its parsing a lot more difficult. The splitting of structure and
presentation using CSS allows for increased flexibility, but also makes it harder for machines to
understand the individual HTML and CSS source. For example, an h1-tag can be styled as a paragraph
and vice versa. The visual representation for the user is the same, but the interpretation of the actual
HTML code is very different. Also, by using semantic ambiguous CSS class-names, machine
interpretation becomes even harder. E.g., what is the semantic meaning of <p class=”title1”>, or even
worse <p class=”style12”> ?
Goal:
The goal of this thesis is to devise and build a normalization algorithm for HTML and CSS. This
normalization algorithm should be capable of losslessly form ill-formed, ambiguous HTML and CSS into
fully compliant xHTML5 and CSS3 files with:
a simplified stylesheet, maximally using the latest CSS3 specifications and CSS precedence rules
HTML code where the structure tags follow the semantic of the contents as closely as possible, as
provided by the W3C
semantically meaningful styling properties.
To ensure the algorithm is lossless, an evaluation algorithm is needed to check that the rendering of the
original HTML page is identical to the normalized HTML page.
A Proof checker for the Semantic Web
Supervisors: Dörthe Arndt, Ruben Verborgh
Promotoren: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Dörthe Arndt
Keywords: N3Logic, proof, reasoning, semantic web
Location: home, Zuiderpoort
Problem definition:
The Semantic Web enables computers to understand and reason about public data. There exists a
huge number of reasoners which are able to draw conclusions based on common knowledge (f.e.
Pellet, cwm or EYE). Some of them also provide proofs to clarify how they came to a certain result. But
what is a proof? How can we be sure that a proof is correct? When do we trust it? Could they be lying?
An independent checker is needed!
Goal:
With this thesis you will help to find a solution for this problem: You will get a better understanding of
N3-logic,
the
logic
used
by
reasoners
such
as
EYE
or
cwm
((http://www.w3.org/2000/10/swap/doc/cwm.html, http://eulersharp.sourceforge.net/). You’ll learn what
the current proof format of these reasoners looks like and how it could be improved. This knowledge
will enable you to implement an independent proof checker for N3-proofs which can handle proofs
written in the N3-proof ontology (http://www.w3.org/2000/10/swap/reason.n3).
Editing the Web of Data by Visualizing it!
Supervisors: Miel Vander Sande, Anastasia Dimou
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Miel Vander Sande
Keywords:
Location: home, Zuiderpoort
Problem definition:
The contents of the Web are moving to a more data-centric state. The data present in human-readable
format on HTML pages is broken out of their silos and linked together to form one giant knowledge
base. But how much data will we need to process in the future? Human consumption can be assisted
by visualising data. Components like and charts are often used to present data in human consumable
pieces. But what happens when we want to start editing this knowledge base? Can the power of
visualisations also be applied to making changes, comments, additions, and corrections?
Goal:
In this thesis you dive into the world of visualisations, extracted from graph structured and semantically
annotated data. The goal is to research a complete data lifecycle consisting of: data extraction from
source - data visualisation - visual editing - feedback to source. You need to investigate how
interactivity can be applied to existing visualisations to allow editing. Next, you look at how these
changes are reflected to the data source. Finally, you look into the most efficient visualisations for
editing data and how they can be improved. This is demonstrated in a rich Internet application using the
latest Web technologies.
From digital to print: closing the gap between digital and analog publishing
Supervisors: Ben De Meester and Tom De Nies
Promotor: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ben De Meester
Keywords: EPUB3, Publishing, HTML5, CSS3, Typography
Location: home, Zuiderpoort
Problem definition:
Until now, most publishers author a printed book, after which a digital book is built. This is a
cumbersome and expensive process. To avoid this, platforms have arisen that enforce a ‘digital-first’
strategy, i.e., where books are authored directly to a digital format such as EPUB3. These books are
then converted to a printed format afterwards. As the possibilities of digital books exceed those of a
printed book, these digital books cannot be automatically converted from digital to print. For example, it
would be very difficult to print an animated GIF? Can we retain the meaning of a video in a printed
book, and how? Also, as digital books are basically Web pages with a dynamic layout, it is interesting to
investigate how we can go from a dynamic Web page to a page-centric printing format, keeping the
typographics that are used for print (line-height, kerning, hyphenation, etc.).
Goal:
In this thesis, a conversion method needs to be devised to go from an enriched digital book to an
optimized printed book. Research is needed into the latest Web technologies (HTML5, CSS3) that are
used to form a digital book, and the typographic requirements that are used for a printed book. Possible
gaps between these Web technologies and typographic requirements need to be identified, and a
conversion tool has to be built to automatically alleviate or even remove those gaps. Use of current
visualization standards (CSS3) should be used as much as possible, and the fall-backs of interactive
and multimedia features of a digital book should retain the semantic meaning of those interactive and
multimedia features as closely as possible.
In a demonstration, the shortcomings of Web technologies as opposed to printed media as well as their
solutions should be visible. Also, the printed media should represent the interactive and multimedia
features by providing a semantically meaningful textual representation.
Parallellisatie van het (de)comprimeren van DNA-sequenties voor meerkernige processoren
en/of GPUs
Begeleiders: Tom Paridaens, Ruben Verhack,
Promotoren: Wesley De Neve en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Tom Paridaens
Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, parallele verwerking
Locatie: Zuiderpoort, thuis
Probleemstelling:
Het menselijk genoom bestaat uit iets meer dan drie miljard basenparen. Ervan uitgaande dat ieder
basenpaar met één byte wordt voorgesteld, heeft het menselijk genoom aldus een ongecomprimeerde
grootte van ongeveer 2.8 gigabyte. Onder invloed van de Wet van Moore is de kostprijs voor het
uitlezen van de volgorde van deze basenparen (Eng. DNA sequencing) gedurende de afgelopen jaren
aanzienlijk gedaald. Op korte termijn verwacht men dat deze kostprijs onder de 1000 dollar zal duiken,
en op lange termijn onder de 100 dollar. Echter, de snelheid waarmee de volgorde van basenparen kan
worden uitgelezen overstijgt momenteel de snelheid waarmee deze sequenties van basenparen
kunnen opgeslagen en geanalyseerd worden. Dit belemmert de ontwikkeling van nieuwe DNAgeoriënteerde toepassingen, zoals gepersonaliseerde geneeskunde en biometrische identificatie.
Doelstelling:
Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van
principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze
masterproef is het de bedoeling om dit raamwerk te verbeteren op het vlak van zowel efficiëntie
(snelheid en geheugengebruik) als effectiviteit (compressieratio). Hierbij kan bijvoorbeeld gedacht
worden aan het parallelliseren van het ontwikkelde raamwerk, teneinde meerkernige processoren en/of
GPUs te kunnen inzetten bij de compressie van DNA-sequenties. De hierdoor vrijgekomen rekentijd
kan dan aangewend worden voor het verder uitbreiden van het betreffende raamwerk, met het oog op
het bekomen van een hogere compressieratio binnen dezelfde verwerkingstijd.
Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied
Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data.
Compressie en stroming van DNA-sequenties in een gedistribueerde omgeving
Begeleiders: Tom Paridaens
Promotoren: Wesley De Neve en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Tom Paridaens
Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, gedistribueerde verwerking,
stroming
Locatie: Zuiderpoort, thuis
Probleemstelling:
Onder invloed van de Wet van Moore is de kostprijs voor het uitlezen van de volgorde van de
basenparen in DNA-sequenties (Eng. DNA sequencing) gedurende de afgelopen jaren aanzienlijk
gedaald. Daardoor wordt deze technologie meer en meer gebruikt voor het samenstellen van
omvangrijke databanken die onderzoekers bijvoorbeeld de mogelijkheid geven om de evolutie en
verspreiding van organismen zoals salmonella te onderzoeken. De snelheid waarmee de volgorde van
basenparen kan worden uitgelezen overstijgt echter momenteel de snelheid waarmee deze sequenties
van basenparen kunnen opgeslagen en geanalyseerd worden. Bovendien kan de transmissie van deze
sequenties zo lang duren dat er vaak nog wordt teruggegrepen naar het verschepen van harde
schijven. Hierdoor loopt onderzoek soms nodeloze vertragingen op, alsook de bestrijding van bepaalde
epidemieën.
Doelstelling:
Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van
principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze
masterproef is het de bedoeling om dit raamwerk uit te breiden met ondersteuning voor het
comprimeren van individuele reads (korte DNA-sequenties, vaak met een lengte van enkele tientallen
tot enkele honderdtallen basenparen), en voor het daaropvolgend versturen van deze gecomprimeerde
individuele reads over een netwerk, teneinde genoomsequenties als een continue stroom van data te
kunnen verwerken in een gedistribueerde omgeving.
Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied
Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data.
Beveiliging van DNA-sequenties tegen onbevoegde toegang
Begeleiders: Tom Paridaens, Glenn Van Wallendael
Promotoren: Wesley De Neve en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Tom Paridaens
Trefwoorden: Bio-informatica, compressie, DNA, experimenteel onderzoek, gedistribueerde verwerking,
encryptie, DRM
Locatie: Zuiderpoort, thuis
Probleemstelling:
Onder invloed van de Wet van Moore is de kostprijs voor het uitlezen van de volgorde van de
basenparen in DNA-sequenties (Eng. DNA sequencing) gedurende de afgelopen jaren aanzienlijk
gedaald. Daardoor wordt deze technologie meer en meer gebruikt voor medisch onderzoek. Hierbij is
het beschermen van de privacy van de patiënt heel belangrijk. Encryptie en DRM zijn dan ook
onmisbaar.
Doelstelling:
Binnen Multimedia Lab werd het afgelopen jaar een raamwerk gebouwd dat gebruikmaakt van
principes uit het domein van videocompressie om DNA-sequenties te comprimeren. In deze
masterproef is het de bedoeling om dit raamwerk uit te breiden met ondersteuning voor encryptie en
toegangsbeveiliging, teneinde de gevoelige data te beschermen en toegang tot deze data te beheren.
Deze masterproef verloopt in samenwerking met Applied Maths (http://www.applied-maths.com). Applied
Maths is een Gents bedrijf dat software maakt voor management en analyse van biologische data.
Detectie en localisatie van bosbranden met behulp van sociale media
Begeleiders: Viktor Slavkovikj en Steven Verstockt
Promotoren: Peter Lambert en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Viktor Slavkovikj
Trefwoorden: sociale media, branddetectie
Locatie: Zuiderpoort, thuis
Probleemstelling:
De toenemende populariteit van sociale netwerkdiensten, zoals Facebook en Twitter, leiden tot nieuwe
mogelijkheden voor sociale netwerken. Door het toenemend aantal gebruikers kan de informatie
geproduceerd via sociale netwerkdiensten een waardevolle databron zijn voor de preventie, controle en
localizatie van grootschalige natuurrampen. Bosbranden zijn een voorbeeld van een dergelijke
grootschalige natuurramp, waarbij vroege detectie noodzakelijk is om een effectieve localizatie mogelijk
te maken. Socale media kunnen worden gebruikt als een sensornetwerk voor vroege detectie van
dergelijke branden.
Doelstelling:
Het doel van deze masterproef is het gebruik maken van sociale media voor de detectie van
bosbranden. De student zal eerst een literatuurstudie voeren rond de meest recente ontwikkelingen
rond het gebruik van sociale media voor het uitsturen van vroege waarschuwingen en het verschaffen
van informatie voor interventieteams. De focus van het onderzoek ligt op het evalueren van bestaande
technieken en het voorstellen van nieuwe ideeën voor de detectie en localisatie van bosbranden
gebruik makend van sociale netwerken. Een mogelijke onderzoekspiste is bijvoorbeeld het bepalen van
de vorm en oppervlakte van een vuurzone met behulp van de locaties van waarop Twitterberichten
gerelateerd aan het incident zijn verstuurd. Een ander voorbeeld is de identificatie van de gebieden die
het ergst getroffen zijn door de ramp en de coördinatie van de hulpverlening.
Figure : Twitcident – Fighting fire with information from social web streams.
Multimodale herkenning van menselijke bewegingen
Begeleiders: Viktor Slavkovikj en Steven Verstockt
Promotoren: Peter Lambert en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Viktor Slavkovikj
Trefwoorden: multimodal analysis, bewegingsherkenning
Locatie: Zuiderpoort, thuis
Probleemstelling:
Automatische videobewaking bestaat uit het observeren van personen en/of objecten die bewegen in
een niet-triviale omgeving, met detectie, opvolging, herkenning, classificatie, bewegingsanalyse en
activiteitsherkenning van deze aanwezige personen en/of objecten als doel. Verschillende types
videobewakingssystemen worden beïnvloed door factoren als ruis, occlusies, veranderingen in
lichtintensiteit, etc., die de globale performantie van het systeem doen afnemen. In het verleden
maakten videobewakingssystemen enkel gebruik van één enkel type sensor (meestal een videocamera
in het visuele domein). Meer en meer wordt het echter, door de snelle toename van goedkope
sensoren, mogelijk om meerdere en/of verschillende types sensoren te gebruiken om de begrenzingen
van huidige bewakingssystemen te overkomen.
Doelstelling:
Het doel van deze masterproef is de automatische herkenning van menselijke activiteit met behulp van
multimodale analyse. In het bijzonder ligt de focus van het onderzoek op de herkenning van
voorgedefinieerde menselijke acties, zoals zwaaien met de arm. De student zal eerst een
literatuurstudie voeren rond de meest recente ontwikkelingen in dit domein. Hierna zal een methode
worden onworpen en ontwikkeld die de herkenning van verschillende acties gebruik makend van een
subset van verschillende sensoren mogelijk maakt. Een dataset met opgenomen menselijke
bewegingen, bestaande uit videosequenties van verschillende standpunten, data afkomstig van
accelerometers, audiosequenties en diepteinformatie, zal hiervoor ter beschikking worden gesteld.
Rate-distortion-complexity modeling for the HEVC decoder under energy constraints of
receivers
Supervisors: Luong Pham Van and Glenn Van Wallendael
Promotor: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Luong Pham Van
Keywords: HEVC, power-aware video coding, decoder complexity
Location: home, Zuiderpoort (optional: presentation at the TU Berlin)
Problem description:
In real-life applications, video streams might be decoded by portable devices such as mobile phones,
tablets, … where the devices have time-varying battery life or different processing capacities. Under
such a scenario, the reduction in decoding complexity to adapt to the capacity of receivers becomes a
critical issue. One possible solution is to allow the encoder to generate a decoder-friendly bit stream.
The new High Efficiency Video Coding (HEVC) standard is expected to be widely used in many
multimedia applications thanks to its high compression efficiency compared with H.264/AVC. To
achieve this high coding performance, HEVC introduces several new coding techniques resulting in
extremely high complexity of both the encoder and decoder. To incorporate this standard in real-life
applications, power-aware hardware modules should be investigated and included.
Goal:
The purpose of this work is to study and propose a rate-distortion-complexity model using statistical
and machine learning techniques for HEVC. The proposed model should be evaluated for its impact on
the compression ratio of the bit stream. Ideally, this model is included in the encoder to select the
optimal coding mode, such that a trade-off between rate-distortion and decoding complexity is achieved
with a minimal impact on the compression ratio.
Image compression using machine learning techniques with classification in the compressed
domain
Supervisors: Ruben Verhack, Baptist Vandersmissen
Promotor: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: image compression, image coding, machine learning, classification
Location: home, Zuiderpoort (optional: presentation at the TU Berlin)
Problem description:
As massive amount of visual materials are captured and stored in visual information systems, effective
and efficient image indexing and manipulation techniques are required. Most visual materials in visual
information systems are stored in some compressed forms. Therefore, it is desirable to explore image
technologies for feature extraction and image manipulation in the compressed domain. Although no
compression algorithm is built with image classification in mind!
During the last 20 years, powerful techniques evolved in the machine learning community around the
non-linear support vector machine theory for classification and regression of signals. The immense
success of non-linear support vector classification in general is due to the use of a non-linear transform
of the signals into a higher dimension feature space. Non-linear regression is intimately related to the
problem of non-linear prediction in signal theory, and thus highly relevant for predictive coding in
general. This paves the way for complete new coding approaches.
Goal:
The idea is that the more an algorithm understands the content of the image the better the algorithm
can compress the image. This understanding equals learning the structures in the image. Furthermore,
these learned structures can also serve as a model for the image. This model can be used as an image
descriptor for basic image classification.
The goal in this master’s thesis is to validate the efficacy of the method described above. The first step
is to implement (Matlab, Python or C/C++) a prototype of such an encoder/decoder for coding an
image. Secondly, the goal is to explore how the model of the image, which was obtained during
compression, can be used as an image descriptor and which requirements it fulfills. Evaluation of the
system can be done using standard benchmarks.
Color prediction in image coding using machine learning techniques
Supervisors: Ruben Verhack, Baptist Vandersmissen
Promotor: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: color prediction, image coding, machine learning
Location: home, Zuiderpoort (optional: presentation at the TU Berlin)
Problem description:
Due to the massive amount of visual materials that are captured and stored nowadays, image
compression stays an active field of research. It is well known that the human visual system (HVS) is
much more sensitive towards changes in luminance values (bright/dark) than towards changes in color
and this is easily exploited in color coding. Research has shown that it is beneficial to predict the color
components of images from the luma values.
During the last 20 years, powerful non-linear techniques evolved in the machine learning community
around the non-linear support vector machine theory for classification and regression of signals. Nonlinear regression using Mercer kernels is intimately related to the problem of non-linear prediction in
signal theory, and thus highly relevant for predictive coding in general. Numerous methods for
incorporating color components into machine learning coding schemes are possible.
Goal:
The goal of this thesis is to extend a given luminance (gray-scale) image codec based on machine
learning techniques to incorporate the color components. The idea is to exploit as much of the learned
information as possible and to predict the color components as good as possible.
The implementation can be done in Matlab, Python or C/C++. If necessary, acceleration on the GPU
using NVIDIA CUDA can be performed.
Lossy image coding with machine learning techniques
Supervisors: Ruben Verhack
Promotor: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: image coding, image compression, machine learning techniques, lossy compression
Location: home, Zuiderpoort (optional: presentation at the TU Berlin)
Problem description:
Due to the massive amount of visual materials that are captured and stored nowadays, image
compression stays an active field of research. During the last 20 years, powerful non-linear techniques
evolved in the machine learning community around the non-linear support vector machine theory for
classification and regression of signals. Non-linear regression is intimately related to the problem of
non-linear prediction in signal theory, and thus highly relevant for predictive coding in general.
Surprisingly, this path has only been recently started gaining attention.
Our challenge is the exploration of non-linear statistical dependencies between amplitudes of image
samples for reducing redundancy of the source prior to coding while modeling the signal. In simpler
terms, using machine learning techniques, it is possible to extract the main structures in an image by
learning the model of the image. The more understanding there is about the content of an image, the
shorter it can be described, and thus coded.
Goal:
The goal in this master’s thesis is to develop a strategy for exploiting learned information from the
images for coding purposes. This includes finding an underlying model of the image as a description
and coding it efficiently. This should be done while keeping the characteristics of the human visual
system (HVS) in mind. This complete new way of image coding provides many opportunities for
different approaches.
The implementation can be done in Matlab, Python or C/C++. If necessary, acceleration on the GPU
using NVIDIA CUDA can be performed.
Efficient transcoding from VP9 to HEVC
Supervisors: Johan De Praeter, Glenn Van Wallendael
Promotor: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: VP9, HEVC, video compression, transcoding
Location: home, Zuiderpoort
Problem description:
The next generation of video compression standards offers better compression than its predecessors.
However, two different standards are being pushed forward: VP9 and High Efficiency Video Coding
(HEVC). These two standards will likely coexist in the future, which makes it important to provide
compatibility between devices supporting the different standards. This compatibility can be achieved by
transcoding a bitstream encoded with one standard to a bitstream compatible with the other. The
simplest method for doing this consists of decoding the bitstream and re-encoding it with the other one
standard. However, this process can be made more efficient, since there are some similarities between
both standards.
Goal:
The goal of this master’s thesis is to reduce the complexity of transcoding from VP9 to HEVC while
retaining good video quality. To achieve this, the student will have to get acquainted with the properties
of both VP9 and HEVC to exploit similarities between both compression standards. The student gets to
build on an existing transcoding framework written in Python, but can also directly make changes to the
reference software of both video standards (VP9: http://www.webmproject.org/code/; HEVC:
http://hevc.kw.bbc.co.uk/).
Classification and detection of screen content for visually lossless transcoding in video
compositions for HEVC
Supervisors: Johan De Praeter and Thijs Vermeir
Promotor: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: HEVC, video compression, transcoding, compositions, screen content
Location: home, Zuiderpoort
Problem description:
Video sequences can either contain natural content, which is content captured by cameras, or screen
content such as a screen capture of a desktop. In many cases, such as screen sharing during a video
call, it is important to preserve the detail of this screen content to assure the readability of data. To do
this, more bits can be allocated to the entire video sequence. However, in a composition of both natural
and screen content, this would result in bits being wasted on the natural content. Moreover, depending
on the type of screen content, the amount of bitrate increase to prevent annoying artifacts might differ.
Therefore, it should be possible to detect several types of screen content in a composition.
Goal:
In this master’s thesis, the goal is to detect and classify different types on screen content, and to
identify the minimal bitrate that should be allocated to prevent annoying artifacts to appear. In a second
phase, the student will implement this bitrate allocation on transcoding of video compositions by
building on an existing transcoding framework in Python and by making changes to the reference
encoder
of
the
HEVC
video
compression
standard
(http://hevc.kw.bbc.co.uk/).
Machine learning models for efficient video transcoding
Supervisors: Johan De Praeter, Robin Bailleul
Promotor: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: video compression, transcoding, machine learning
Location: home, Zuiderpoort
Problem description:
Videos are provided in all kinds of compression formats, resolutions and quality. To change the format,
resolution or quality, the original bitstream can be decoded and then re-encoded with new parameters.
However, this does not take into account information that was already in the original bitstream. A
technique to take this information into account is machine learning. However, there exist many machine
learning techniques, and the models they generate might not necessarily translate to good transcoding
results.
Goal:
The goal of this master’s thesis is to examine the performance of different machine learning techniques
on different types of video transcoding. The relationship between probabilities generated by a model
and the final performance of the transcoder is also examined. In this thesis, the student can build upon
an existing transcoding framework in Python.
Grid-based real-time multi-agent path planning for crowds in dynamic environments
Supervisors: Ignace Saenen
Promotor: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1-2
Number of theses: 1
Contact: Ruben Verhack
Keywords: Multi-agent, path planning, caching, parallel implementation
Location: home, Zuiderpoort
Description:
In various applications and computer games, search algorithms are at the heart of decision making
structures and modules. Optimal performance in this context is often of high importance. Given a
number of topological properties (e.g. using tile grids, hexagonal grids, …) search algorithms can be
accelerated algorithmically. Avoiding dynamic obstacles is an important challenge that grows when the
number of agents is high. In a real-time context, the exact number of required searches is often
unknown beforehand, and the time it takes to calculate a path is proportional to the length of the path.
Additionally, re-calculating paths often can lead to Ping-Pong effects that are undesirable and
unnatural.
Goal:
After reviewing a number of existing grid-based search algorithms, this master’s thesis will focus on
constructing and implementing an algorithm that allows thousands of agents to move collision-free
through indoor and outdoor environments, e.g. by exchanging or reusing partial search results or using
a global path solver. It is important that the maximum length of an agent’s path can be controlled, such
that heterogeneous group behavior can be simulated. Apart from describing the algorithm, performance
and memory complexity, the proposed solution must be implemented and evaluated at Multimedia Lab
using existing benchmark framework and software. Next to a single threaded CPU implementation, a
parallel hardware implementation is optional for 1 student and mandatory for 2. Together with
Multimedia Lab, the student(s) look at benchmarking for search-space exploration speed (node
expansions), path correctness, and optimality and a number of path-smoothness criteria, and evaluate
implementation specific constraints.
Reference: http://gamma.cs.unc.edu/research/crowds/
Adaptive collision meshes for dynamic point cloud data sets in Unity
Supervisors: Ignace Saenen
Promotor: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verhack
Keywords: Mesh generation, mesh simplification, mesh tessellation, collision, nav-mesh
Location: home, Zuiderpoort
Description:
With the advent of ubiquitous computing and video recording, the world around us increasingly
becomes a constantly measured and recorded space, revealing the changes that occur in the real
world also on a digital level. In order to quickly adapt to the dynamically changing environments,
roadmaps need to reflect big changes fast in order to help aid-workers to confidently navigate terrain in
crisis situations.
Goal:
The goal of this master’s thesis is to explore methods and architecture to construct and adaptively
reflect changes in point cloud data as it is streamed in robustly. Different sets of terrain requirements
have to be observed for different simultaneously generated meshes (e.g.; walkable / able to drive a
vehicle of size X / amphibious / reachable by air lift only / totally blocked, etc.. ) Apart from describing
the algorithm, performance and memory complexity, the proposed solution must be implemented and
evaluated in Unity, making use of existing data formats and libraries.
Automatic Product Recognition in YouTube Videos and Subsequent Linkage to eBay Using
Deep Learning Techniques
Supervisors: Pieter Delbeke, Baptist Vandersmissen, Abhineshwar Tomar
Promotor: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 2
Number of theses: 1
Contact: Baptist Vandersmissen
Keywords: artificial intelligence, deep learning, machine learning, product recognition, video analysis
Location: home, Zuiderpoort
Problem definition:
Automatic product recognition involves the detection and recognition of different products in an image
or video. This is mostly done based on the visual characteristics of these products. Automatic product
recognition can for example be used for second screen advertising based on content displayed on a
television screen or for automatically showing buying options based on products appearing in online
videos. This is especially useful for social networking sites such as YouTube and Instagram, which
contain substantial amounts of content related to products or brands, thus making it possible to
generate extra revenue without displaying advertisements that are (often) irrelevant. However,
recognizing a product in a video is a nontrivial problem, for instance requiring the use of fine-grained
features in order to be able to recognize a specific product.
Goal:
In this master’s thesis, we will focus on using deep learning techniques to detect high-level features
representing a product, leveraging raw visual content and textual transcriptions (metadata) originating
from YouTube. The student will start by reviewing the current state-of-the-art regarding product
recognition and will investigate the use of deep learning techniques to learn product representations.
Deep learning techniques have recently shown to outperform several other machine learning
techniques and are therefore currently adopted by big internet companies such as Facebook, Google,
and Netflix.
The ultimate goal of this master’s thesis is to develop and test a framework that can automatically
extract products from YouTube videos and that can subsequently link the products found with articles
posted on eBay. This master’s thesis will be carried out in close collaboration with Zentrick, a Ghentbased startup.
About Zentrick:
Zentrick offers publishers an interactive video platform to increase engagement, enhance related
content re-marketing and improve call to action conversion rates. The Zentrick platform provides an
integrated set of services including an interactive video development platform, multi-platform/device
content delivery capabilities, a rich development studio and a robust analytics suite.
Categorization of Short-form Mobile Video Using Deep Learning Techniques
Supervisors: Baptist Vandersmissen, Fréderic Godin
Promoters: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Baptist Vandersmissen
Keywords: categorization, deep learning, Instagram, short-form video, video analysis, Vine
Location: home, Zuiderpoort
Problem definition:
The ubiquitous presence of smartphones in our daily life on the one hand and the emergence of social
media platforms specifically tailored for short-form video on the other hand led to the creation of
enormous amounts of video content. This content may describe activities in our daily lives, as well as
noteworthy happenings or groundbreaking events. However, the lack of means to easily search and
browse through these vast amounts of video content prevents us from optimally using that video
content. Automatic categorization of video content (i.e., assigning a topic or category to a video such
that it describes the content of the video) can aid applications in the area of life logging and storytelling,
to name a few.
Goal:
Deep learning techniques have recently shown to outperform several other machine learning
techniques and are therefore currently adopted by big internet companies such as Facebook, Google,
and Netflix. In this master’s thesis, we will investigate how the aforementioned deep learning
techniques can be used to automatically assign a category (e.g., news, sports, music …) to short-form
mobile video originating from social media applications such as Vine and Instagram Video. This type of
video content is particularly challenging, given its fast-paced and noisy nature.
The student will create a framework that allows automatically assigning a category to a video, taking
into account its visual content and the presence of social annotations such as hashtags or mentions.
The effectiveness of the framework will be assessed based on a ground truth set originating from the
online social networks itself. The student will be able to acquire an in-depth knowledge of different
state-of-the-art techniques for deep learning and video analysis.
Semantic hashing for near-duplicate video clip detection on online platforms for video sharing
Supervisors: Abhineshwar Tomar, Baptist Vandermissen
Promoter: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Abhineshwar Tomar
Keywords: deep learning, semantic hashing
Location: home, Zuiderpoort
Problem Definition:
Online platforms for video sharing (e.g YouTube) significantly grapple with the problem of nearduplicate video clips. Besides cluttering search results, these near-duplicates these near-duplicate clips
often infringe upon the copyright holder's intellectual property rights of copyrights of the artist quite
often thus affecting the revenue of the original content creator. The massive size and dynamic nature of
online platforms demands for video sharing requires the use of techniques that allow for both efficient
and effective of near-duplicates of a video.
Goal:
In this master's thesis we plan to make use of the deep learning techniques in order to develop a
semantic based technique for near-duplicate video clip detection. This master's thesis will first entail a
study of the basic principles of video analysis and deep learning, and where the latter has attracted the
attention of companies like Facebook, Google and Netflix. Next, this master’s thesis will focus on the
development and testing of techniques for generating semantic hashes for video clips, for instance
taking the approach of Salakhutdinov and Hinton as a starting point [1]. This approach applies semantic
hashing to text documents. It is expected that semantic video hashes will be able to preserve the
semantics of video clips: the more semantically similar video clips are, the closer the video clips are in
the hash feature space, thus making it possible to speed up the detection of near-duplicate video clips
(as any newly uploaded video clips do not need to be compared to all of the already available video
clips). Finally, this master’s thesis also aims at testing the semantic video hashes on content originating
from online platforms for video sharing.
This master's thesis gives students the opportunity to acquire a solid understanding of deep learning
techniquesby tackling a number of practical challenges in the area of near-duplicate video clip
detection. If you would have any comments, questions, or ideas, then feel free to contact me at
[email protected].
References:
[1] R. Salakhutdinov and G. E. Hinton, "Semantic hashing," in Proceedings of the 2007 Workshop on
Information Retrieval and applications of Graphical Models (SIGIR 2007), Amsterdam: Elsevier, 2007.
An automatic, personalized sports commentator by making use of deep learning and social
media
Supervisors: Fréderic Godin and Abineshwar Tomar
Promoter: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 2
Contact Person: Fréderic Godin
Keywords: social media, Twitter, sports, natural language processing, deep learning
Location: home, Zuiderpoort
Problem definition:
When sports fans cannot watch a sports game, they often use social media to follow the game. They
read microposts of people that are watching the game and that are giving live coverage of the game.
More than 40% of the sports fans have once used social media to follow a game. TO that end Twitter is
often used. During a game, fellow fans take the role of a sports commentator. These fans often
disagree with the commentator on television who needs to stay neutral in order to satisfy fans of both
competing teams. A possible solution would be to make use of the vast amount of microposts on social
media to create a personalized, sports commentator.
Goal:
The goal of this master's thesis is to make use of comments and opinions on social media during a
sports game to create an automatic sports commentator. This will allow sports fans to read/hear
personalized comments created for and made by fellow sports fans. In order to create this text
automatically, we will make use of deep learning techniques. Deep learning techniques recently
showed to outperform several other machine learning techniques and are therefore currently adopted
by big internet companies such as Facebook, Google and Netflix. In this master's thesis, you will
explore how deep learning can be applied to automatically generate meaningful comments during a
sports game. You will learn the basics of deep learning and you will investigate how the vast amount of
microposts that are generated every minute can be used for this purpose.
It is up to the student to decide on which sport the algorithm will be developed.
If you are interested in this thesis or if you have a good idea yourself in the field of social media nalysis,
feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or send me an e-mail at
[email protected]
Efficiënte schaling en compositie van videostromen
Begeleiders: Glenn Van Wallendael en Thijs Vermeir
Promotoren: Jan De Cock en Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: compositie, videocompressie, HEVC
Locatie: Zuiderpoort, thuis
Probleemstelling:
In controlekamers (beveiliging, verkeer, luchthaven, …) komen tal van videostromen binnen die
weergegeven worden op een immense videowall. Met de opkomst van krachtige smartphones en
tablets wordt de mogelijkheid gecreëerd om diezelfde videocontent ook hierop weer te geven. Het
sturen van al deze videostromen apart is niet evident en daarom wordt op een intelligente manier een
compositie gemaakt van deze videostromen. Op dit ogenblik wordt dit samenstellen van meerdere
videostromen naar een enkele videostroom gedaan door deze allemaal te decoderen gevolgd door een
schaling van de video. Vervolgens worden de pixels gecombineerd om dan het resultaat terug te
encoderen. Het zou veel efficiënter zijn moest alle informatie uit de binnenkomende videostromen
gebruikt worden om de uitgaande videostroom sneller te encoderen.
Doelstelling:
In deze masterproef worden technieken ontwikkeld om meerdere videostromen op een efficiënte
manier te combineren. Hiervoor kan gebruik gemaakt worden van de open source implementatie van
de HEVC videocompressiestandaard (http://hevc.kw.bbc.co.uk/). Een extra meerwaarde van deze
masterproef is dat deze mede begeleid wordt door Barco (http://www.barco.be).
Optimalisatie van HTTP adaptive streaming
Begeleiders: Glenn Van Wallendael
Promotoren: Jan De Cock and Rik Van de Walle
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: HTTP streaming, mediaprotocollen, mobiele toestellen
Locatie: Zuiderpoort, thuis
Probleemstelling:
Het afleveren van multimediale data via het Web kan op een aantal verschillende manieren. In de
beginjaren van het Web werd multimedia gewoon gedownload (zoals een gewoon bestand), waarna
het afgespeeld werd als de download compleet was. Momenteel wordt er veelal gebruikgemaakt van
progressief downloaden: je kan reeds beginnen kijken terwijl het downloaden nog aan de gang is.
Anderzijds zijn er in de voorbije jaren ook een aantal protocollen ontwikkeld speciaal voor het afleveren
van multimediale data (i.e., de zogenaamde real-time streaming protocollen zoals RTSP en RTMP).
Deze werken heel efficiënt op het gebied van bandbreedte en random access, maar vereisen wel
speciale serverinfrastructuur omdat er niet via HTTP gecommuniceerd wordt.
Doelstelling:
Recent is er een nieuwe aanpak ontwikkeld, HTTP adaptive streaming genaamd, die de voordelen van
zowel HTTP progressive download als real-time streaming combineert. Zoals de naam reeds aangeeft
wordt er in deze techniek gebruikgemaakt van het HTTP-protocol, zodat elke gewone Web-server kan
gebruikt worden. Het idee is dat de aflevering van multimediale data neerkomt op een opeenvolging
van het progressief downloaden van kleine segmenten (typisch tussen 2s en 10s). Doordat we met
kleine segmenten werken, kan er ook tussen die segmenten gewisseld worden van kwaliteit (bv. omdat
de bandbreedte kleiner geworden is), vandaar het adaptieve aspect van de nieuwe techniek.
Voorbeelden van bestaande oplossingen die HTTP adaptive streaming gebruiken zijn Apple HTTP Live
streaming en Microsoft Smooth Streaming. Verder is er binnen MPEG ook een standaard ontwikkeld
voor HTTP adaptive streaming: MPEG DASH.
In deze masterproef is het de bedoeling om te focussen op het adaptieve aspect van de HTTP
streaming technologie. Meer bepaald moet er onderzocht worden hoe de video optimaal kan
geconfigureerd worden om zo veel mogelijk mensen een optimale kwaliteit aan te bieden.
Ontwikkeling van videocompressietools op de GPU met behulp van NVIDIA CUDA
Begeleiders: Glenn Van Wallendael, Jonas El Sayeh Khalil
Promotoren: Jan en Rik
Aantal studenten: 1
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: GPU, compressietools, NVIDIA CUDA, HEVC
Locatie: Zuiderpoort, thuis
Probleemstelling:
Meer en meer wordt bij videocodering aandacht besteed aan het optimaliseren van de codeerefficiëntie
bij een lage coderingscomplexiteit. Voorbeelden hiervan zijn te vinden in nieuwe standaarden voor
beeldcodering en videocodering, bv. Motion JPEG XR. Deze standaarden laten toe omwille van de lage
complexiteit en beperkte afhankelijkheden in de bitstroom om relatief eenvoudig berekeningen in
parallel uit te voeren, bijvoorbeeld op een GPU. Andere coderingsstandaarden zoals H.264/AVC en
HEVC bieden dan weer betere compressie aan, maar laten een parallelle uitvoering minder eenvoudig
toe omwille van de complexiteit.
Doelstelling:
In deze masterproef is het de bedoeling om vertrekkende van een bestaande standaard, bijvoorbeeld
HEVC, compressietools te ontwikkelen die optimaal gebruik kunnen maken van de duizenden threads
aanwezig op de GPU. Na zorgvuldige analyse van de coderingsstappen kunnen deze processen
aangepast worden om afhankelijkheden te elimineren en de complexiteit te verlagen Het eindresultaat
is een GPU-gebaseerde compressietool met lage complexiteit die video beelden snel kan verwerken
met een compressiefactor vergelijkbaar met de originele standaard. De student kan steunen op de
uitgebreide kennis inzake GPU’s en videocodering die binnen het lab aanwezig is. Een open source
software implementatie van de HEVC-standaard kan gevonden worden op http://hevc.kw.bbc.co.uk/.
Algoritmen voor efficiëntere hercodering van HEVC
Begeleiders: Glenn Van Wallendael en Luong Pham Van
Promotor: Jan De Cock and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: High-Efficiency Video Coding (HEVC)
Locatie: Zuiderpoort, thuis
Probleemstelling:
In een volledige productieketen wordt een videobestand meerdere keren omgezet tussen verschillende
formaten. Bij het opnemen op een camera wordt de video gecomprimeerd met een eenvoudig
algoritme omdat de camera niet te veel mag verbruiken. Tijdens de montage ligt de focus op
editeerbaarheid, waardoor een ander formaat geschikter is. Vervolgens moet het beeldmateriaal
gedistribueerd worden waardoor een zo laag mogelijke bandbreedte bereikt moet worden. Al deze
omzettingen brengen een kwaliteitsverlies met zich mee en vragen ook veel processorkracht. Het is
aan de student om één van deze problemen aan te kaarten tijdens de masterproef.
Doelstelling:
In deze masterproef wordt getracht om een transcodering (omzetting) te verwezenlijken die ofwel lager
is van complexiteit of beter in termen van compressie vergeleken met de cascade van decodering en
encodering. Het compressieformaat waarop de verbetering toegepast zal worden is High-Efficiency
Video Coding (HEVC), de opvolger van H.264/AVC. De software van deze codec is volledig opensource en aanpassingen kunnen dus zonder problemen gemaakt worden.
Efficiënte transcodering van H.264/AVC naar HEVC
Begeleiders: Glenn Van Wallendael en Sebastiaan Van Leuven
Promotor: Jan De Cock and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: H.264/AVC, High-Efficiency Video Coding (HEVC)
Locatie: Zuiderpoort, thuis
Probleemstelling
Op dit ogenblik wordt een enorme hoeveelheid beeldmateriaal opgeslagen volgens de H.264/AVCcompressiestandaard. Omdat een opvolger van deze standaard er aan zit te komen, namelijk HighEfficiency Video Coding (HEVC), zal er een grote vraag komen naar apparatuur die deze bestanden
omzet naar het nieuwe formaat. De meest gebruikelijke manier is om de oorspronkelijke video eerst te
decoderen en deze daarna onafhankelijk te encoderen naar het nieuwe formaat. Omdat beide
compressiestandaarden op dezelfde principes gebouwd zijn is het duidelijk dat dit zeker niet de meest
efficiënte methode is.
Doelstelling:
De student zal in een eerste fase de eigenschappen van H.264/AVC en HEVC bestuderen. Dan zal de
werking ervan geanalyseerd moeten worden op mogelijke verbeteringen en gelijkenissen die uitgebuit
kunnen worden. Beide codecs zijn volledig open source en dus zullen alle ideeën tot verbetering ook
daadwerkelijk geïmplementeerd kunnen worden zonder eerst de codec van meet af aan te moeten
programmeren.
Robuuste watermerken voor video-adaptatie
Begeleiders: Glenn Van Wallendael en Luong Pham Van
Promotor: Jan De Cock en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Jan De Cock
Trefwoorden: videoadaptatie, watermerken
Locatie: Zuiderpoort, thuis
Probleemstelling:
Het toevoegen van watermerken maakt verschillende toepassingen mogelijk, zoals het detecteren van
ongewenste aanpassingen aan videostromen, het identificeren van illegale verspreiding van
videobestanden, het aantonen van eigendom van de videocontent etc. Belangrijk is enerzijds dat deze
watermerken kunnen ingevoegd worden zonder een zichtbare wijziging aan te brengen in de
videobeelden; anderzijds moeten ze robuust genoeg zijn om (al dan niet gewenste) operaties zoals
video-adaptatie te overleven.
In deze masterproef worden algoritmen bestudeerd die watermerken toevoegen aan HEVCvideostromen. Deze watermerken worden vervolgens op de proef gesteld door algoritmen voor
transcodering (bv. reductie van bitsnelheid, spatiale resolutie). Het ingevoegde watermerk wordt als
‘succesvol’ beschouwd indien het na decodering correct kan worden geëxtraheerd uit de gedecodeerde
videostroom.
Doelstelling:
In een eerste fase wordt bestudeerd welke elementen van HEVC-videostromen geschikt zijn om
watermerken aan toe te voegen zonder de visuele kwaliteit van de gedecodeerde stromen te schaden.
Vervolgens zullen algoritmen bestudeerd worden die robuuste watermerken toevoegen met het oog op
de verschillende adaptatie-operaties. De algoritmen voor het invoegen van watermerken zullen
geïmplementeerd worden in software. Vervolgens zal de robuustheid van de watermerken getest
worden binnen het raamwerk voor transcodering dat ontwikkeld werd binnen Multimedia Lab.
Automatisering van golden eyes: referentieloze kwaliteitsbeoordeling van digitale televisie
gecomprimeerd met HEVC
Begeleiders: Glenn Van Wallendael (Multimedia Lab), Nicolas Staelens (IBCN)
Promotor: Jan De Cock en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 2
Contactpersoon: Glenn Van Wallendael
Trefwoorden: videokwaliteit, pakketverlies, HEVC
Locatie: Zuiderpoort, thuis
Probleemstelling:
Als een gemiddelde kijker sceptisch zou zijn over de kwaliteit van HD beeldmateriaal, aangeboden op
de kabel, dan had de HD-revolutie nog een tijdje op zich laten wachten. HD-beeldmateriaal heeft
namelijk nood aan een hogere netwerkcapaciteit dan degene die nu geleverd wordt. Daarbij komt nog
dat bij het transport van de video over het netwerk fouten in de bitstroom worden geïntroduceerd. Deze
fouten resulteren in zichtbare artefacten (blocking, drift, …) en bijgevolg in een suboptimale beleving
door de kijker. Op dit ogenblik is er geen geautomatiseerde manier om deze fouten aan de distributeur
(Telenet, Belgacom, …) kenbaar te maken, maar wordt er gewerkt met golden eyes. Dit zijn mensen
die de kwaliteit van verschillende TV-kanalen in het oog moeten houden op fouten. Door de
afwezigheid van een automatische kwaliteitsfeedback kunnen geen optimaliserende beslissingen
gemaakt worden i.v.m. de codering en de transport van de video.
Doelstelling:
In deze masterproef zal getracht worden om een kwaliteitsindicator te ontwikkelen die het proces van
de golden eyes kan bijstaan. Dit kan verwezenlijkt worden door eigenschappen uit zowel de
videostroom (bewegingsvectoren, macroblokgrootte, …) als het gedecodeerde beeld te combineren.
Door deze eigenschappen in verband te brengen met de kwaliteit kan een goede kwaliteitsmaat
opgebouwd worden. Deze kwaliteitsmaat kan dan de basis vormen voor een meer robuuste en dus
kwaliteitsvollere TV-ervaring. Door de begeleiding vanuit zowel Multimedia Lab als IBCN, zal kennis en
ervaring uit beide onderzoeksgroepen ter beschikking staan voor de verwezenlijking van de
masterproef.
Textuurgeneratie voor vereenvoudigde 3D-modellen
Supervisors: Jonas El Sayeh Khalil
Promoter: Peter Lambert en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Jonas El Sayeh Khalil
Keywords: textuurdata, meshvereenvoudiging, ware-tijd rendering
Location: home, Zuiderpoort
Description:
De modellen die gebruikt worden in animatiefilms, kunnen vaak heel complex worden. Wanneer we
deze modellen zouden willen gebruiken in een videospel, dan moeten deze heel sterk vereenvoudigd
worden voor ze effectief bruikbaar zijn. Een interessante bemerking in deze wereld, is dat veel
gebaseerd is op illusies: eenvoudige driehoekjes worden gebruikt, maar door toevoeging van textuur
kan de illusie ontstaan dat een heel complexe wereld weergegeven wordt. Typisch gaan artiesten de
texturen ontwerpen, maar een interessante onderzoeksvraag is in hoeverre deze texturen ontworpen
kunnen worden door gebruik te maken van een complexer model als voorbeeld. In dit geval zouden we
een model sterk kunnen vereenvoudigen, en door toevoeging van textuur de illusie scheppen dat het
model nog steeds heel complex is; de grote vraag is dus hoe deze texturen gegenereerd kunnen
worden, met zo weinig mogelijk inbreng van artiesten.
Goal:
In deze masterproef zal de student onderzoeken hoe texturen ontworpen kunnen worden om originele
complexe modellen visueel te gaan benaderen. Enkele voorbeelden van hoog-complexe modellen,
zoals deze ook gebruikt worden in de productie van animatiefilms, zullen voor de student beschikbaar
zijn. De student zal zich verdiepen in texturen, en hoe deze de kwaliteit van een model kunnen
beïnvloeden. Eens wat beter vertrouwd met textuur, zal het onderzoek vooral gericht zijn op de
generatie ervan, waarbij vertrokken wordt van een uiterst complex model, en waarbij we een
eenvoudige benadering willen aanvullen met textuurdata om te zorgen dat het uiteindelijke beeld toch
een hoge kwaliteit lijkt te hebben. De student zal zo ervaring kunnen opdoen in zowel de wereld van
offline rendering zoals gebruikt in films, en ware-tijd rendering wat nodig is in bv. videospellen.
Schaalbare compressie van meshes
Begeleiders: Jonas El Sayeh Khalil
Promotor: Peter Lambert en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 1
Contactpersoon: Jonas El Sayeh Khalil
Trefwoorden: 3D modellen, schaalbare compressie, signaalverwerking, entropiecodering, 3D
kwaliteitsmetrieken
Locatie: Zuiderpoort, thuis
Description:
GPU’s vandaag de dag zijn krachtiger dan ooit, en kunnen honderdduizenden driehoeken zonder
problemen op het scherm toveren. Het verkrijgen van al die data op de GPU zelf is een andere zaak:
om alles van je harde schijf naar de GPU te uploaden, of zelf van een server bij online gaming, is meer
tijd nodig. Compressie is hier belangrijk, maar ook het progressief kunnen weergeven van modellen is
belangrijk om kwaliteit te garanderen. Liever dan dat een model plots op het scherm verschijnt, hebben
we liever dat we al zien dat er wat is, en dat het model er steeds beter uit gaat zien in zoverre dit
effectief nodig is. Het laatste decennium is hierrond veel onderzoek gedaan, maar vooral richtend op
zogenaamde (semi)-regelmatige meshes. Om kwaliteit te garanderen, zijn meshes met een
onregelmatige topologie echter veel belangrijker, en hier is duidelijk nog werk te verrichten in research.
Goal:
De student zal zich initieel inwerken in het domein van meshcompressie, en zo vertrouwd raken met
hoe een 3D-model eigenlijk opgesteld is en hoe deze typisch gecomprimeerd kunnen worden. Eens
vertrouwd met het onderwerp en met de state-of-the-art, zal de student zich meer verdiepen in meshes
met een onregelmatige topologie, het soort meshes dat ook in de industrie het belangrijkst zijn om hoge
kwaliteit te garanderen. Deze zijn typisch moeilijker te comprimeren juist door hun onregelmatigheid, en
onderzoek is nodig om dit toch efficiënt te kunnen doen. Eén optie is om bij elke vereenvoudiging een
steeds regelmatigere mesh te bekomen, een alternatief is om te zoeken waar redundante informatie te
vinden is, en zo entropiecodering te optimaliseren. De student doet zo ervaring op in zowel de wereld
van 3D modelering en ware-tijd rendering, als in de wereld van signaalverwerking om modellen efficiënt
te comprimeren.
Optimalisatie van meshvereenvoudiging via een voxelisatiestap
Begeleiders: Jonas El Sayeh Khalil, Ignace Saenen
Promotor: Peter Lambert en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 1
Contactpersoon: Jonas El Sayeh Khalil
Trefwoorden: parallellisatie, GPU programmeren, voxelisatie, Marching Cubes, meshconstructie
Locatie: Zuiderpoort, thuis
Description:
Meshvereenvoudiging is het proces waarbij een complexe mesh, voorgesteld door een groot aantal
driehoeken, vereenvoudigd wordt tot een mesh met een veel lager aantal driehoeken. Een oplossing
waarbij we topologische complexiteiten negeren is door gebruik te maken van voxelisatie, het proces
waarbij een mesh omgezet wordt in een voxelrepresentatie. Voxels, of volumetric pixels, kunnen gezien
worden als een uitbreiding van 2D-pixels naar een derde dimensie, waarbij we bijvoorbeeld kunnen
aangeven dat een voxel binnenin een mesh zit door het de waarde 1 te geven, of zich vanbuiten
bevindt met de waarde 0. Na hierop bewerkingen te doen, en nadien terug een mesh te genereren, kan
een vereenvoudigde mesh op een efficiënte manier bekomen worden. Het resultaat is een lageresolutie mesh die bijvoorbeeld gebruikt kan worden in een level-of-detailaanpak.
Goal:
De student zal onderzoek doen omtrent de mogelijkheden i.v.m. zowel voxelisatie als
meshreconstructie. De centrale vraag zal zijn hoe de prestaties, zowel in rekentijd als qua kwaliteit,
verbeterd kunnen worden. Wat rekentijd betreft, ligt de weg open om massieve parallellisatie uit te
buiten: de voxel-representatie leent zich daar uitstekend voor, en de student kan zich baseren op een
prototype dat er nog niet efficiënt gebruik van maakt. Op deze manier zal de student ervaring kunnen
opdoen met GPU-programmeren, en een taal zoals CUDA of OpenCL. De reconstructie zelf maakt
voorlopig gebruik van een eenvoudige Marching Cubes-implementatie, en ook hier zullen optimalisaties
mogelijk zijn. Na een onderzoek van de state-of-the-art in dit domein zal de student zich focussen op
alternatieven die een betere kwaliteit opleveren, maar zich nog steeds blijven lenen tot een massiefparallelle implementatie.
Toeristische digitale ontsluiting van de Vlaamse waterwegen
Begeleiders: Arnout Willockx (de Milieuboot), Steven Verstockt en Viktor Slavkovikj
Promotor: Erik Mannens en Rik Van de Walle
Richting: Master Computerwetenschappen, Master Wiskundige Informatica
Aantal Studenten: 1
Aantal Masterproeven: 1
Contactpersonen: Steven Verstockt en Viktor Slavkovikj
Trefwoorden: contextualisatie, recommendatie, geotagging, analyse van geotagged media.
Website: http://www.milieuboot.be
Locatie: thuis, Zuiderpoort
Probleemstelling
Voor de her-/opwaardering van de Vlaamse Waterwegen wil Milieuboot vzw een interactieve gids
ontwikkelen die zowel op als naast het water door verscheidene van zijn doelgroepen gebruikt kan
worden. Op basis van de gps-coordinaten en de context (tijdstip/persoonlijke voorkeuren/etc.), dient de
applicatie gerichte multimediale informatie te verschaffen omtrent de omgeving van het stuk waterweg
waarop men zich bevindt. De interactieve gids zou een grotere beleving op/naast het water moeten te
weeg brengen.
Doelstelling
In deze masterproef dient te worden onderzocht (i) hoe geotagged media omtrent een bepaald stuk
waterweg op een (semi-)automatische wijze kan worden verzameld en beheerd, (ii) hoe
gecontextualiseerde aanbevelingen op deze content kunnen worden gegenereerd en (iii) hoe
geotagged sensordata van de boot/watertoestand (on-/off-boat data) kan worden gearchiveerd. De
ontwikkelde interactieve gids (demoapplicatie) moet men kunnen raadplegen via de displays op de boot
en via een mobiele app.
Figuur 1 : Interactieve multimediale verrijking van de waterwegen
Trusting query results on the open Web
Supervisors: Ruben Verborgh, Tom De Nies
Promoter: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Ruben Verborgh
Keywords: Linked Data, provenance, trust, Semantic Web, querying, Web, HTTP, client/server
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
The Web way of answering a question is to find combine answers from different sources. But how can
we be sure that the final answer is based on sources we can trust? This is the question you will answer
in this thesis.
Because information is spread across different places, the old database paradigm of “query => answer”
doesn’t really work anymore on the Web. Linked Data Fragments (http://linkeddatafragments.org/) capture
this idea: a client asks servers for different parts of information and is able to combine it by itself. We
built
a
Node.js
application
that
can
query
the
Web
in
such
a
way
(https://github.com/LinkedDataFragments/Client). What this client doesn’t tell you (yet), is where the
different parts of the answer come from; it doesn’t give you a guarantee that the answer is
correct/trustworthy. By combining Linked Data Fragments with provenance technology.
Goal:
Developing a method to combine the trust in different knowledge sources.
Describing the trust in an answer that encompasses different sources.
Developing a client that queries the Web and gives an answer you can trust.
Querying the open Web by transforming HTML into Linked Data
Supervisors: Ruben Verborgh, Anastasia Dimou
Promoter: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Ruben Verborgh
Keywords: Linked Data, Web, Semantic Web, HTML, querying
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
What’s the best place to buy new RAM for your laptop: Amazon or eBay?
Who finished in the Top 10 of the Tour de France of the past 5 years?
And what recipes for chocolate cake take under 15 minutes to prepare?
If only our smartphone could use the Web to answer those questions!
…and that’s what you will enable in this thesis.
People are by far no longer the only users of the Web. Increasingly, automated clients try to use the
Web by themselves. However, since they do not understand natural language, they need access to
machine-interpretable formats such as RDF / Linked Data. In this thesis, you’ll develop a way to
transform Web pages from HTML into Linked Data, so that machines can understand them.
Next, you’ll extend our existing Linked Data Fragments client (http://linkeddatafragments.org/) so that
machines can answer queries over Web pages. This then enables us to ask the above questions to our
smartphone… and getting an answer to them!
Goal:
Developing a method to convert regular Web pages into linked data.
Building a Linked Data Fragments client that can query Web pages.
Evaluating your query solution on aspects such as accuracy and performance.
Distributed query answering on the open Web
Supervisors: Ruben Verborgh, Miel Vander Sande
Promoter: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Ruben Verborgh
Keywords: Linked Data, Web, Semantic Web, querying, distributed systems
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
What do your friends think of movies directed by Martin Scorsese?
What Nvidia graphics cards have few bug reports on Linux?
Is it cheaper to buy certain flights and hotels separately or together?
None of the above questions can be answered by a single data source, yet today’s Web technology still
focuses on single-source answer systems. This is problematic because a) it’s not scalable, since that
single source will need to process a lot of queries, and b) that source doesn’t have all the data it needs
to answer questions such as the above. The idea behind Linked Data Fragments
(http://linkeddatafragments.org/) is that clients, instead of servers, should answer queries. Sources should
offer fragments of data in such a way that clients can combine them to answer questions that span
multiple datasets
A
client
that
works
with
a
single
data
source
already
exists
(https://github.com/LinkedDataFragments/Client). Your task in this master’s thesis is to extend this client –
or build a new one – so that it can query different data sources for a single query.
Goal:
Developing a scalable method to answer queries using different data sources.
Describing to a client which data sources are relevant for a given query.
Evaluating your solution on aspects such as accuracy and performance.
Querying multimedia data on the (social) Web
Supervisors: Ruben Verborgh, Miel Vander Sande
Promoter: Erik Mannens en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Ruben Verborgh
Keywords: Linked Data, Web, Semantic Web, querying, multimedia, images, video
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
How would you find YouTube movies about “New York” in which people mention the Twin Towers?
How could you find images that depict two people shaking hands?
Even though there is a large amount of metadata available on the Web, finding images and video can
be quite difficult. The goal of this thesis is to build an intelligent client (for instance, as a browser
extension) that is able to find multimedia items on the Web. This saves users many search operations
on different datasets. For this, you will need to combine metadata from different sources. A starting
point for this is the Linked Data Fragments client (http://linkeddatafragments.org/), which already allows to
query the Web Of Data. Your task is to blur the border between textual and multimedia search, making
it easier to find those media items users are looking for.
Goal:
Developing a client to find multimedia data on the Web.
Finding methods to query existing multimedia platforms such as YouTube and Instagram.
Evaluating your solution on aspects such as recall, precision, and performance.
Real-time querying of transport data on the Web
Supervisors: Ruben Verborgh, Pieter Colpaert
Promotor: Rik Van de Walle en Erik Mannens
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verborgh
Keywords: Linked Data, Web, Semantic Web, querying, transport, train
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
The Belgian rail website allows you to plan your journey, but only in very rigid ways. It does not take
into account your current location and plans. Suppose you need to be in a certain building in Brussel for
a meeting. That morning, you decide to take the train at 14:06. Unfortunately, that train is severely
delayed later on, but you won’t know that until you check the website again. In this thesis, you develop
a querying system over the Web that allows to retrieve real-time results that are continuously updated.
Based on data from different sources, your system automatically picks those fragments that are
necessary for users to plan their journey. You can build on existing work for Web querying, such as
Linked Data Fragments (http://linkeddatafragments.org/).
Goal:
Developing a real-time querying mechanism for transport data.
Planning a route using different fragments of data from the Web.
Evaluating your solution on aspects such as bandwidth and performance.
Continuously updating real-time querying on the Web of Data
Supervisors: Ruben Verborgh, Pieter Colpaert
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Ruben Verborgh
Keywords: Linked Data, Web, Semantic Web, querying, real-time
Location: home, Zuiderpoort
Problem definition:
Mail [email protected] to discuss this subject. Your thesis can be written in Dutch or English.
Mail [email protected] voor vrijblijvende info. Je kan je thesis in het Nederlands of Engels
schrijven.
Information moves at the speed of light; most things are already outdated when you read them. Current
query endpoints on the Web do not account for this. They give an answer, and if you want updated
results, you’ll have to ask the question again. In this thesis, your challenge is to create a client
framework for applications that allows continuously updating results. For instance, when you're reading
the overview of a football match which is not finished yet, results should come in as the game evolves:
goals are made, tackles are performed, or players are substituted. So therefore, queries such as “give
me the current number of goals” or “give the names of the players on the field” are in constant change.
Note how in both cases, facts have to be updated and/or retracted. Of course, errors can be made
during the reporting and results should also be able to be corrected.
This leads to applications that react to data in a much more flexible and dynamic way. You can build
on existing work for Web querying, such as Linked Data Fragments (http://linkeddatafragments.org/).
Goal:
Creating a protocol to exchange real-time query results.
Developing a framework for clients that query real-time results.
Demonstrating the framework with one or two example applications.
Distributed video encoding
Begeleiders: Pieter Delbeke (Zentrick) and Glenn Van Wallendael
Promotor: Jan De Cock and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 1
Contactpersoon: Pieter Delbeke
Trefwoorden: video encoding parallellisatie
Locatie: Zuiderpoort, thuis
Probleemstelling
Het encoderen van video is een recource intensieve en tijdrovende taak. Er dienen voor verschillende
apparaten en platformen verschillende formaten aangemaakt te worden. Voor gebruikers van ons
platform is het echter heel belangrijk dat de video’s die ze uploaden zo snel mogelijk online
beschikbaar zijn. Snellere processoren hebben slechts een beperkte invloed op de gewenste
uitvoersnelheid. De ideale oplossing is het opsplitsen van het werk over verschillende servers. Dit
vereist geavanceerde planning en coördinatie van de encoding.
Doelstelling
Stel een architectuur op die ons toelaat om onze video-encodering te parallelliseren. Hierbij dien je
rekening te houden met schaalbaarheid en robuustheid. Vervolgens kan je overgaan tot de
implementatie. Binnen Zentrick wordt er gebruikgemaakt van .NET (C#) voor het ontwikkelen van
server-side software.
About Zentrick:
Zentrick offers publishers an interactive video platform to increase engagement, enhance related
content re-marketing and improve call to action conversion rates. The Zentrick platform provides an
integrated set of services including an interactive video development platform, multi-platform/device
content delivery capabilities, a rich development studio and a robust analytics suite.
Video Object Tracking
Begeleiders: Pieter Delbeke, Baptist Vandersmissen, Abhineshwar Tomar, and Viktor Slavkovikj
Promotor: Wesley De Neve and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 1
Contactpersoon: Pieter Delbeke
Trefwoorden: video image recognition
Locatie: Zuiderpoort, thuis
Probleemstelling
Gebruikers van ons platform kunnen objecten in een video taggen en hieraan informatie of een actie
koppelen. Zo kan een bepaald product in de video getagged zijn met de prijs en omschrijving. De kijker
van de video kan vervolgens op het product klikken tijdens het afspelen van de video, en zo deze
informatie opvragen. Het taggen van zo een voorwerp in de video is een tijdrovende klus die
geautomatiseerd kan worden. De uitdaging bestaat erin dat het voorwerp in de video beweegt en dat
de tag deze beweging dient te volgen.
Doelstelling
Op het moment van schrijven bestaat er reeds een proof of concept. Deze versie zal verder uitgewerkt
worden. Mits er op dit vlak nog veel ruimte voor onderzoek en verbetering is, kan er bij de aanvang van
de stage gekeken worden welke punten interessant zijn om verder uit te werken. Niet alleen de
betrouwbaarheid kan verbeterd worden, ook de hoeveelheid gedetecteerde informatie kan uitgebreid
worden. Zo kan er gekeken worden of objecten over shot-wissels heen getracked kunnen worden en er
een automatische classificatie van de objecten kan gebeuren zoals gezichten, productlogo’s of tekst.
About Zentrick:
Zentrick offers publishers an interactive video platform to increase engagement, enhance related
content re-marketing and improve call to action conversion rates. The Zentrick platform provides an
integrated set of services including an interactive video development platform, multi-platform/device
content delivery capabilities, a rich development studio and a robust analytics suite.
High Dynamic Range (HDR) optimization for encoding
Supervisors: Niels Van Kets, Glenn Van Wallendael
Promotor: Jan De Cock en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Niels Van Kets
Keywords: High Dynamic Range, image processing, High Efficiency Video Codec, video compression
Location: home, Zuiderpoort
Problem definition:
HDR images typically make a representation of a real-world scene by using a combination of higher
bitdepths and tone-mapping. Tone-mapping is the process of changing the contrast linearity scale to
increase the perceived contrast of an image. Because most video codecs are optimized for linear
contrast content, encoding images that have lost their linearity might impose losses in encoder
efficiency and performance.
In the field of image processing and video compression much research has been done on increasing
user experience. Much of this research has been done on increasing resolutions, but at this moment we
are already talking about 4K and even 8K resolutions. Further increase of resolutions beyond 8K will
probably become less important for regular home appliances.
High Dynamic Range tends to be the next way-to-go on improving user experience. Whereas high
definition displays pump out more pixels, HDR displays provide more contrast by using a higher bit
depth per pixel. This contrast is the key of making images more realistic (see figure below).
Low Dynamic Range
High Dynamic Range
Goal
In this master’s thesis, we would like to implement an optimalisation process to increase our encoding
performance. Typically this solution should contain a pre-processing step that optimalises the raw
recorded HDR content in such a way that the performance and efficience of our HEVC codec increases
significantly. After the decoder, a post-processing step will inverse the pre-processing algorithm such
that the content at the end of our chain is (visually) lossless compared to our input content.
High Dynamic Range (HDR) transcoding with tone mapping
Supervisors: Niels Van Kets, Glenn Van Wallendael
Promotor: Jan De Cock en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Niels Van Kets
Keywords: High Dynamic Range, High Efficiency Video Codec, transcoding, tone mapping
Location: home, Zuiderpoort
Problem definition:
Although HDR seems to be a great opportunity to increase user experience, not many end user devices
already support this higher bit depth needed to support the complete HDR range. To adapt to this
problem, many effort and time has been spent in order to compress the HDR range such that the data
may be visualized more naturally on a low dynamic range display. This process is called tone mapping
and is typically done on the raw image data. This process attempts to keep some characteristics of the
original HDR content and provide a real-world perception of the real-world scene.
In the field of image processing and video compression much research has been done on increasing
user experience. Much of this research has been done on increasing resolutions, but at this moment we
are already talking about 4K and even 8K resolutions. Further increase of resolutions beyond 8K will
probably become less important for regular home appliances.
High Dynamic Range tends to be the next way-to-go on improving user experience. Whereas high
definition displays pump out more pixels, HDR displays provide more contrast by using a higher bit
depth per pixel. This contrast is the key of making images more realistic (see figure below).
Low Dynamic Range
High Dynamic Range
Goal:
In this master’s thesis, we would like to implement tone mapping on HDR content that is already
encoded with an HEVC video codec. This tone mapping will be implemented in a transcoding step that
reuses information from the initial encoding of the high bit depth content. By using this information we
would like to increase these transcoding speeds while maintaining the real-world perception of the
video.
Automatic Composition of Context-based Content in Digital Books
Supervisors: Hajar Ghaem Sigarchian, Tom De Nies, Wesley De Neve
Promotor: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact: Hajar Ghaem Sigarchian
Keywords: eBook, Widgets, Ubiquitous environment, Semantic Web, enrichment, Webmapping
Location: home, Zuiderpoort
Problem definition:
Given the increasing popularity of eBooks, authors and publishers are currently experimenting with
innovative workflows and novel book concepts, for instance testing the boundaries of content formats
such as HTML5 and EPUB3.
Compared to print books, the content of digital books does not have to be static; instead, the content of
digital books can be automatically provided and updated according to the context in which these books
are used. This context may include the location, time, and interests of the user, as well as the
characteristics of the different devices the user is relying on (e.g., a smart phone or a tablet).
Goal:
The goal of this master’s thesis is to answer the question of how to automatically provide and update
the content of digital books, taking into account diverse usage contexts. The student first needs to
conduct a literature review, making it possible to achieve a good understanding of the state-of-the-art,
possible use cases (e.g., educational materials and travel guides), and corresponding requirements.
Next, the student will propose an architecture and information model that meets the requirements of the
use cases selected, subsequently implementing a proof-of-concept that makes use of (Semantic) Web
technology. Finally, the student needs to test the proof-of-concept, for instance evaluating the
relevance of the automatically provided content.
Research Question:
How to provide and update contextualized content for interactive digital books in a diverse usage
environment?
How to Evaluate?
By comparing the content of a digital book that has been authored automatically (unsupervised) with
the content of a digital book that has been authored manually (supervised).
Deep Learning for entity specific sentiment analysis of reader comments on news reports
Supervisors: Abhineshwar Tomar and Fréderic Godin
Promoters: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Abhineshwar Tomar
Keywords: artificial intelligence, deep learning, machine Learning, opinion mining, sentiment analysis
Location: Zuiderpoort
Problem Definition:
Media play an important part in making the democratic procedures in a country healthy. However, in
today's world of massive information availability, media are frequently accused of being corrupt, biased,
partisan or - at the very least of - not providing the complete picture of a story. According to a poll in
2012 by Australian National University, media came on the top as the most affected institution by
corruption, with 44% of the people voting for it [1]. Another discussion on debate.org finished with 83%
of the people being convinced that the American media are corrupt [2]. It should be clear that these
accusations and perceptions harm the very interests that a free and fair media is meant to protect,
making it imperative to be able to identify bad media practices. In addition, the vast amount of media
content being produced motivates the use of an automated solution.
In this master's thesis we will focus on the analysis of textual news reports and comments made by
readers on these reports. Sentiment analysis done on the news reports for a particular entity provides
us with the opinion of the author on that particular entity. However these techniques do not inform us
whether or not the opinion of the author was biased. To identify these biases we propose to rely on the
opinion of the readers of the article. As such, this master's thesis aims to inform us about the perception
of the readers of a news report regarding a particular entity.
Goals:
Sentiment analysis is an active area of research and development generating a lot of interest in the last
ten years as more and more information became accessible through the Web. In this master's thesis
we plan to perform sentiment analysis on news article and on reader comments regarding particular
entities mentioned in the news article under consideration. A contradiction in the sentiment of the two
regarding a particular entity will inform us about the perception that people have of the reporting in that
article.
We shall employ deep learning techniques to perform the sentiment analysis. These techniques have
recently been shown to outperform other machine learning techniques on computer vision, speech
recognition and natural language processing tasks attracting the attention of companies like Google,
Facebook, Microsoft Research, IBM, Baidu and Netflix. In this master's thesis we shall particularly focus
on performing sentiment analysis through the use of deep convolutional neural networks. Such a
convolutional deep neural network has already been developed in the lab for the purpose of Twitter
hashtag recommendation.
The master's thesis will first involve studying the scientific literature on deep learning techniques paying
particular attention to the use of deep convolutional neural networks. Next, this master's thesis will
focus on developing and evaluating different deep neural network architectures for sentiment analysis,
comparing the methods developed by making use of already available benchmarks.
This master's thesis allows gaining insight into the increasingly popular field of the deep learning by
tacking a number of practical challenges in the area of sentiment analysis. If you would have any
comments, questions or further ideas, then feel free to contact me at [email protected].
References:
[1] http://politicsir.cass.anu.edu.au/sites/default/files/2012-10-26_ANUpoll_ethics_corruption.pdf.pdf
[2] http://www.debate.org/opinions/is-the-american-media-corrupt
Natural language processing for microposts using deep learning
Supervisors: Fréderic Godin, Abhineshwar Tomar
Promoters: Wesley De Neve and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 2
Contact Person: Fréderic Godin
Keywords: deep learning, natural language processing, social media
Location: Zuiderpoort
Problem Definition:
In the last decade a number of techniques were developed to make well-formed texts such as news
articles understandable for machines: Part of speech tagging, chunking, named entity recognition
(recognizing locations and persons) but also sentiment analysis. However, these techniques cannot be
applied to microposts because these microposts are short, contain a lot of spelling mistakes and are
very noisy. Applying the same algorithm is therefore not straight forward.
Goal:
The goal of this master's thesis is to develop similar algorithms for microposts that deal with the special
characteristics of microposts. For this, deep learning techniques can be used. These techniques have
recently been shown to outperform several other machine learning techniques and are therefore
currently adopted by Internet companies such as Facebook, Google and Netflix. In this master's thesis,
you will explore how deep learning can be applied to microposts. Based on a literature study and
personal interests, the student has the freedom to the most interesting algorithm to improve upon.
If you are interested in this thesis or if you have a clever idea yourself in the area of social media
analysis or deep learning, feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or send me an
e-mail at [email protected]
Enhancing user experience by data processing using wearable computing devices
Supervisors: Jonas El Sayeh Khalil, Ignace Saenen
Promoters: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Jonas El Sayeh Khalil
Keywords: Google Glass, smart eyeware, augmented reality, wearable devices
Location: Zuiderpoort
Problem Definition:
With wearable computers becoming more prominent in everyday life, one must consider how these
devices can be used for enhancing everyday life and how they can become more than just a gadget.
These devices have a lot of potential based on how people operate them. They don’t have to reach for
their pockets or purse. One swift gesture and they can receive a lot of information at once. In this thesis
we will focus on devices such as Google Glass or ReconJet.
These devices enable developers to unleash the full power of informatics because they are able to
provide a lot of data. This is the first problem domain we need to tackle. We need to research how we
can traffic data and how these data needs to be processed to be useful for applications. Data can be
for example used to deduct the users activity and enhance that experience. A possible case could be
where the user is reading scientific papers, this data can then be used to provide information such as
definitions about terms related to the research area.
Goal:
Once the data is processed, we need to define a useful way to communicate these back to the user.
This data needs to be presented with care given that the used devices have a limited screen size which
can be used for displaying information. There will also be the need for a feedback system so that the
data processing mechanisms can learn from user feedback without involving the developer.
Lastly there are two other issues that need to be addressed. Firstly we need to devise an efficient
communication channel between the device and data processing server. We have to keep in mind that
these devices have a limited battery life, so it’s important to lower the power usage. Secondly there is
also a privacy issue. Deducting the user’s activity implies that the application has all-in access to the
user’s personal life and he will definitely require a guarantee that his data is safe and not accessible by
third parties.
Automatische layout en generatie van 3D virtuele werelden
Begeleiders: Ignace Saenen
Promotor: Peter Lambert and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten:1
Aantal masterproeven: 1
Contactpersoon: Ignace Saenen
Trefwoorden: Semantiek, object-plaatsing, procedurale inhoud generatie
Locatie: Zuiderpoort, thuis
Probleemstelling:
3D virtuele werelden worden steeds groter en visueel realistischer. Het is niet langer kostenefficient om
deze werelden volledig door 3D artiesten te laten maken. "Intelligente" design tools zijn daarom
hoognodig om dit artistieke werk te ondersteunen en bieden vaak oplossingen aan m.b.v. procedurale
inhoud generatie (http://en.wikipedia.org/wiki/Procedural_generation): algoritmes staan hier letterlijk aan de
wieg van nieuwe universa. Nadeel van deze techniek is dat de artistiest typisch een deel van zijn
artistieke vrijheid verliest.
Doelstelling:
In deze masterproef zal het de bedoeling zijn om de mogelijkheden van procedurale inhoud generatie
te onderzoeken bij het creëren van aantrekkelijke omgevingen en de mate waarin de artiest zijn vrijheid
kan behouden. Binnen het lab werd reeds een raamwerk ontwikkeld waarbij concepten uit de fysica en
semantiek gebruikt worden om de plaatsing van objecten binnenin een kamer te automatiseren. Jouw
onderzoek zou dit raamwerk verder kunnen uitbreiden op 2 mogelijke manieren: door onderzoek naar
het automatisch genereren van complete steden of landen enerzijds, of door onderzoek naar het
verbeteren van de lokale object plaatsing binnenin een kamer anderzijds.
Next-gen Augmented Reality on Smart Eyewear
Begeleiders: Luc Peeters (Augnition), Jonas El Sayeh Khalil, Ignace Saenen, Ruben Verhack
Promotor: Peter Lambert and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 2
Aantal masterproeven: 1
Contactpersoon: Luc Peeters
Trefwoorden:
Locatie: Zuiderpoort, thuis
Context & probleemstelling
Augmented Reality (AR) op Smart Eyewear zoals Google Glass biedt tal van nieuwe mogelijkheden, in
vergelijking met AR op smartphones & tablets. De gebruiker moet niet meer zijn smartphone
vasthouden en de camera richten op de ‘marker’ die herkend moet worden (POI, QR-code, print article,
advertentie of affiche,…). Het volstaat om, eenmaal men de smart glass op heeft en de AR-app
geactiveerd heeft, om in de richting van de marker te kijken. De AR-app zal dan, eenmaal de marker
herkend is, de verrijking (AR-laag met label, button met link, illustratie, video of 3D-model) tonen
bovenop de marker. In het geval van ‘see-through’ smart glasses, kan de verrijking in principe overal in
het gezichtsveld getoond worden, m.a.w. de AR is niet meer beperkt tot enkel binnen het ‘video-frame’
zoals dat bij AR op een smartphone wel het geval is. Ook het feit dat de gebruiker niet kijkt op een
videocaptatie met een AR-laag er bovenop, maar dat zijn zicht binnen het natuurlijke gezichtsveld blijft,
is een groot voordeel, vooral in situaties waar de gebruiker ondertussen actief is (wandelen, rijden, taak
uitvoeren,…): dit soort van AR op een smart glass is veel minder storend, zodat hij zijn activiteiten niet
hoeft te onderbreken. Bovendien is de ‘user experience’ veel beter (natuurlijker, scherper), aangezien
het natuurlijke gezichtsveld breder & scherper is dan een cameracaptatie op een scherm. Een
bijkomend voordeel is dat de gebruiker niks hoeft te doen, behalve rondkijken: indien er geen AR-laag
beschikbaar is binnen het gezichtsveld, merkt de gebruiker niks op van de AR-app - in tegenstelling tot
AR op een smartphone, waar de gebruiker constant dient zijn omgeving te ‘scannen’ door zijn camera
te richten. Op het moment dat een AR-laag beschikbaar wordt, wordt deze automatisch getoond
bovenop het natuurlijke gezichtsveld & kan de gebruiker beslissen om hier al dan niet mee aan de slag
te gaan - bijvoorbeeld door te kijken naar een ‘AR-pin’, waardoor die geactiveerd & uitvergroot wordt
(vergelijk met een pin ‘openklappen’ in Google Maps).
Tot daar de theorie. In de praktijk zijn er momenteel momenteel een aantal problemen met AR op smart
glasses:
- Beperkt gezichtveld (FOV of ‘field of view’): Google Glass bijvoorbeeld heeft een FOV van 17° en
bovendien is dat beperkte venster binnen het gezichtsveld door Google bewust gepositioneerd in de
rechterbovenhoek van het gezichtsveld van de drager. Dat betekent dat het niet mogelijk is om ‘gelijk
waar in het gezichtsveld’ een AR-laag te presenteren aan de gebruiker. Deze beperkte FOV houdt in
dat er toch nog net zoals op een smartphone moet gewerkt worden met een cameracaptatie op het
scherm, waarbovenop de AR-laag. Bovendien verplicht dit de gebruiker om ‘heen en weer’ te kijken
tussen de marker in zijn gezichtsveld en de marker op de cameracaptatie in de display.
- Processor- & batterijbelasting bij AR-modus: AR-applicaties vragen veel rekenkracht. Het
camerabeeld wordt niet alleen live getoond op het scherm, maar het wordt in real-time geanalyseerd
(gezocht naar gekende markers) en bij een succesvolle herkenning wordt een AR-laag opgehaald
(lokaal of in de cloud), gepositioneerd en in real-time gerenderd. Met de huidige AR-SDK’s (februari
2014) leidt dit bijvoorbeeld op Google Glass tot een overbelasting van de processor & een sneller
oververhitting (cfr alert ‘Glass must cool down to function properly’), waarop de processor een aantal
taken niet meer uitvoert. Bovendien is dit nefast voor de autonomie (batterij leeg na een uur in ARmodus).
- Betrouwbaarheid & snelheid van de herkenning van de AR-markers: de camera van de huidige smart
glasses is gericht op het capteren van het volledige gezichtsveld (groothoek). Deze optische
karakteristiek brengt met zich mee dat het herkennen van markers niet altijd vlot verloopt, bijv. bij
lichtomstandigheden die niet ideaal zijn.
AR-SDK’s herkennen meestal ook QR- & barcodes. Terwijl QR-codes vlot herkend worden, is het
herkennen van 1D-barcodes problematisch.
Augnition heeft zowel een aantal smart glasses (februari 2014: Google Glass, Vuxix M-100, Epson
Moverio), als een aantal AR-applicaties (zelf ontwikkelde & third party AR-apps) evenals 2 AR-SDK’s
(Wikitude SDK & Metaio SDK), die toelaten om bovenstaande probleemstelling te analyseren. In het
kader van deze masterproef zal Augnition ook de tools ter beschikking stellen aan de student om zelf
(eenvoudige) AR-toepassingen te ontwikkelen, ter ondersteuning van het onderzoek.
Doelstelling
- Onderzoeken met AR-pilootapplicaties (bestaande of zelf ontwikkelde gebruikmakend van bestaande
AR-SDK’s zoals Wikitude, Metaio,…) wat de impact is van de beperkte FOV van de huidige smart
glasses met een display in de hoek van het gezichtsveld (Google Glass, Vuzix M100). Nagaan of AR
op deze toestellen al dan niet aanvaardbaar is qua user experience en of het aangewezen is om de
AR-laag full-screen als een ‘fiche’ te tonen, in plaats van als een ‘pin’ op het camerabeeld.
Onderzoeken of smart glasses met een scherm in het midden van het gezichtsveld (Epson Moverio BT200) maar met nog steeds een beperkte FOV al dan niet een betere gebruikerservaring opleveren voor
AR-applicaties - of dat het beter is om te wachten met het verrijken van het gezichtsveld met een ARlaag, totdat er smart glasses zijn met een grotere FOV (vanaf hoeveel graden maakt dit een verschil?).
Aanbevelingen formuleren - ondersteund met een proof-of-concept - hoe met de huidige generatie
smart glasses AR zodanig geïmplementeerd kan worden dat het de best mogelijke gebruikerservaring
oplevert op smart glasses.
- Onderzoeken hoe de huidige problemen m.b.t. te hoge processor- & batterijbelasting in AR-modus
kunnen opgelost of toch op zijn minst beperkt kunnen worden. Dit kan gebeuren door het vergelijken
van de verschillende bestaande AR-SDK’s op dit vlak, het gebruiken van workarounds, zoals sleep
modus, enz.
- Onderzoeken hoe de herkenning van AR-markers of barcodes/QR-codes kan geoptimaliseerd
worden, door het vergelijken van de verschillende AR-SDK’s op dit vlak en door het zoeken naar
manieren om de herkenning te faciliteren (zoomen, belichting, …).
Streaming & video-conferencing op Google Glass
Begeleiders: Luc Peeters (Augnition), Jonas El Sayeh Khalil, Ignace Saenen, Ruben Verhack
Promotor: Peter Lambert and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 2
Aantal masterproeven: 1
Contactpersoon: Luc Peeters
Trefwoorden:
Locatie: Zuiderpoort, thuis
Context & probleemstelling
Een interessante toepassing van Smart Eyewear, zoals Google Glass, is het doorsturen van beelden
vanuit de ‘point-of-view’ van de drager van de bril. Dit biedt mogelijkheden voor tal van toepassingen,
gaande van media (mediagenieke beelden live doorsturen, bv. tijdens een sportprestatie van een
atleet), e-learning (studenten volgen bv. een operatie uitgevoerd door hun professor-chirurg) of field
service (remote expert geeft real-time support, door ‘mee te kijken’ met de field technician).
Probleem is wel dat de standaard tools voor dit soort van toepassingen dikwijls een matige kwaliteit
geven. Bv. in het geval van Google Glass ondersteunt dit device standaard enkel ‘Google Hangout’.
Ook al is dit een zeer handige & veelzijdige tool, de kwaliteit is te beperkt voor bijvoorbeeld HDstreaming toepassingen, waar het belangrijk is om een beeld te krijgen met een haarscherpe resolutie.
Google Hangout biedt immers weinig mogelijkheden om een scherp HD-beeld zonder haperingen te
garanderen.
Doelstelling
Onderzoeken hoe de kwaliteit van zowel live streaming (one-to-many & one-way) als videoconferencing (two-way & multi-user) kan verbeterd worden door gebruik te maken van streaming
(HTTP-live streaming e.a.) en standaarden voor video-conferencing die niet standaard ondersteund
worden op Google Glass, maar die wel hun nut reeds bewezen hebben op het web of op mobiele
toestellen.
Een mix samenstellen van codec / protocol / streaming server … op basis van een proof-of-concept die
de beste resultaten geeft qua beeldkwaliteit en betrouwbaarheid (geen haperingen).
Anarchy in the meeting room
Supervisors: Gauthier Renard (Barco) and Sebastiaan Van Leuven
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Sebastiaan Van Leuven
Keywords:
Location: Zuiderpoort, home
Problem Definition:
Visualize your default meeting. Often, one presenter will tell you about his story showing the slides he
prepared in the order that he chose to present them or a group of people will work together on a shared
document hosted and controlled by one of the team members. In a more advanced case, multiple
screens can be shown or used in a meeting room, but each of them is still controlled by the host of the
content in a very static way.
Now imagine a meeting room with multiple screens. Any of the participants can put any content (local,
online or cut out of a presentation) on any of these screens or push it to the meeting room’s basket of
presentable content. Any participant can access and change any of these contents, make annotations
or highlight content on the screen and can put this content on his/her own computer or mobile device
and make his/her own annotations or report. The meeting room itself can also contribute to the meeting
by recognizing/analyzing the content and suggesting additional content (images, translations, additional
info, trends...) and by giving hints on possible distribution of the content onto the different screens. All of
this should not only be possible when all participants are used or prepared for this kind of
meetings/meeting rooms, but when a traditional presentation is given, the framework should enable this
kind of meetings by detecting features automatically.
Goals
The description above is the ultimate solution. In the thesis, the student can focus on one or more
aspects and is more than welcome to incorporate his/her own vision into the project. The aspects on
which the student can work on include: feature detection, context detection, screen usage optimization,
user interfaces and interaction, the control platform and many others. Multiple students can easily work
together or each focus on a separate subject.
Technologies that can be used in this thesis are: web technologies (HTML5, NodeJS, …), cloud
technologies (Azure, Amazon, Google,…), OpenCV, C/C++ and others if interested (C#, QT C++,
OpenGL, OpenCL/CUDA, …)
Linking Twitter messages to TV video fragments
Supervisors: Fréderic Godin, Baptist Vandersmissen, Wesley De Neve
Promoters: Erik Mannens and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 2
Contact Person: Fréderic Godin
Keywords: social media, Twitter, text analysis, video analysis
Location: Zuiderpoort, home
Problem Definition:
Every day, many TV shows are broadcasted worldwide. During live events such as music concerts or
sport events, many unscripted events happen. After the broadcast, the whole TV show needs to be
annotated by professionals in order to make the content searchable. This is, however, a very timeconsuming and expensive task.
Goal:
The goal of this master's thesis is to automatically annotate video sequences of live TV shows by
making use of the collective knowledge available on the web. During these live events, a lot of
microposts are posted on social networks such as Twitter that describe what is happening on TV.
These microposts can therefore be used as an important source of information to describe the video
content. An interesting possibility would be to match the names mentioned in the microposts with the
faces in the video sequence. Matching over 7 billion faces with the video sequence is an impossible
task. However, by making use of the names mentioned in the microposts by the TV audience, only a
limited number of faces need to be matched. Based on a study of the state-of-the-art and personal
interests, the student has the freedom to decide which algorithms will be developed.
If you are interested in this master's thesis or if you have a clever idea yourself in the area of social
media analysis, feel free to drop by at the Zuiderpoort (2.24 – Fréderic Godin) or to send me an e-mail
at [email protected]
Video processing for interactive visualization of spherical or 360° video
Supervisors: Glenn Van Wallendael and Niels Van Kets
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Glenn Van Wallendael
Keywords: spherical video, video processing
Location: Zuiderpoort, home
Problem Definition:
In the future, video will not be displayed on a flat surface like a TV. There will be 360° video in which
you can look around freely. For this purpose, TVs are getting curved, virtual reality glasses like the
Oculus Rift are invented and videos get projected on spheres around viewers. Whatever the practical
solution for display will be, numerous challenges exist about providing this user with the best possible
visual experience. In an ideal world where there are no practical limitations, the entire 360° video can
be provided to the end user device without any quality sacrifices. In the real world, on the other hand,
every resource is limited, but optimizations can be found in the characteristics of this 360° video, the
video content and his observer. For example, did you ever look at the eye movement of a person
turning his head. The eyes will stay focused on an object and while the head turns different objects
along the way will be fixed. Therefore, the importance of predicting the focus points of where the
observer is going to watch becomes more important. Additionally, when the observer keeps his body
stationary, he is only able to turn his head 180°. With a movie that triggers his will to look around, the
observer could start looking around further and be more active. But more actively looking around blurs
the observation capacity, so a trade-off can be made. Finally, there is the additional advantage that the
left side of the movie is connected to the right side because it represents a sphere. This property is not
being used in today regular video coders.
Goal:
In this work, the student tries to progress the scientific field of 360° video coding, transmission and
interactive visualization. In video coding perspective, the regular video gets extended with 360°
properties. To improve this 360° video experience, the restrictions of eye and head movement must be
taken into account.
Viewpoint selection for high resolution video
Supervisors: Niels Van Kets and Glenn Van Wallendael
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Niels Van Kets
Keywords: High resolution video, 2nd screen, user
Location: Zuiderpoort, home
Problem Definition:
In the field of video processing, over the last decades the resolution of capturing and playback has
been increasing dramatically. In the field of video capturing, this increase of pixels means a large
increase in capturing angle. For the future 8K cameras it would be even possible to capture an entire
soccer field with a fixed top shot camera and with enough detail.
Since typical home users won’t adopt an 8K device, it could be possible to create an interactive
viewpoint selector where the user can choose its place on the field, zoom in on actions they find
interesting and bring the live event experience to the home.
Goal
In this master’s thesis we would like to investigate a second screen solution where the viewer can
select his/her viewpoint in the high resolution video based on gestures on a mobile device (e.g. iPad or
Nexus Tablet). This algorithm selects a part of the video and converts it to a common consumer
resolution (such as full HD). This algorithm should be able to work interactively and should give the
user an extra real-time experience of their content.
Linked open data als hulpmiddel bij kernwoordextractie op een imperfecte transcriptie
Begeleiders: Ruben Verborgh and Marieke Lycke (VRT)
Promotor: Erik Mannens and Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1
Aantal masterproeven: 1
Contactpersoon: Erik Mannens
Trefwoorden:
Locatie: Zuiderpoort, thuis
Probleemstelling
Om een bepaald content-item in een grotere set terug te vinden, plaatst een omroep kernwoorden en
een korte beschrijving bij elk item. Alle content manueel van kernwoorden voorzien is echter zeer
tijdrovend. Daarom wordt momenteel in de richting van (semi-) automatische annotatiemethodes
gekeken. Spraakherkenning is zo’n methode. Deze schrijft de spraak automatisch uit in een
transcriptie. De gezochte kernwoorden zijn dan de relevantste woorden uit deze transcriptie. Hier
duiken evenwel twee problemen op. Het eerste probleem ontstaat doordat de transcriptie niet perfect
is. Deze imperfectie brengt mogelijk foute kernwoorden naar voor. Daarnaast – het tweede probleembevat een transcriptie uiteraard enkel uitgesproken kernwoorden. Nochtans zou het detecteren van
gerelateerde termen, bijvoorbeeld synoniemen, ook een meerwaarde kunnen bieden bij het zoeken in
grote mediabibliotheken.
Doelstelling
In deze masterproef willen we nagaan hoe linked open data kan bijdragen tot een meer accurate en
betrouwbare automatische kernwoordextractie. Daarvoor dient het volgende te worden onderzocht: (i)
een state-of-the-art studie naar linked open data binnen de Nederlandse taal, (ii) de mogelijkheden
voor het automatisch uitbreiden van deze linked open data, (iii) een manier om met linked open data
het aantal foute kernwoorden te reduceren en (iv) de mogelijke kernwoorden uit te breiden met
gerelateerde kernwoorden. Uiteindelijk wordt een algoritme ontwikkeld die relevante en gelinkte
kernwoorden genereert uit een mogelijk imperfecte spraaktranscriptie.
Drone mesh algorithm for live (sport) events
Supervisors: Niels Van Kets, Ruben Verhack, Glenn Van Wallendael
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 2
Number of theses: 1
Contact Person: Niels Van Kets
Keywords: Drone, live, video, captation, algorithms
Location: Zuiderpoort, home
Problem description
In sports broadcasting, typically a large amount of camera’s is placed on fixed locations next to, or in
the large presence of the field. These cameras are limited in movement and can only pan, tilt and zoom
in. This concludes in a fixed amount of possible viewing possibilities.
Drones on the other hand, are not bound on location and could change this rather static video capturing
by actually following the action. In television making, drones tend to change the way we will watch
sports in the future. These nimble and highly moveable devices could change sports as we know it into
a more action enabled viewing experience.
Goals
In our scenario, we start from a large sports field where typically fast movements and unpredictable
game evolution are key features (e.g. soccer). Above this soccer field, drones with mounted cameras
are applied to capture live images.
In this master’s thesis, we would like to develop an algorithm that calculates the best position for a fixed
amount of drones capturing video of a soccer field. This algorithm should make sure that our drones
are capturing as much area as possible of our field without colliding into one another. Typically if a
broadcast director chooses one of the drones to move, the algorithm should calculate the paths of all
the other drones to make sure the maximum coverage condition is met.
Robuuste detectie en reconstructie van beschadigde digitale videobestanden
Begeleiders: Patrick De Smet (NICC) en Glenn Van Wallendael
Promotor: Peter Lambert en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: videoanalyse en –verwerking, videoreconstructie
Locatie: Zuiderpoort, thuis
Probleemstelling
In onze hedendaagse werk- en leefomgevingen wordt steeds vaker nog uitsluitend gebruik gemaakt
van digitale technieken voor het opnemen en bewaren van audio- en videodata. Hierdoor groeit ook
steeds meer de vraag naar nieuwe mogelijkheden om deze digitale informatie snel en nauwkeurig te
kunnen analyseren in het kader van gerechtelijke onderzoeksopdrachten.
Een bijzonder deelprobleem hierbij is dat bepaalde digitale informatie vaak zo goed als onbruikbaar
geworden is ten gevolge van het al dan niet opzettelijk en geheel of gedeeltelijk wissen of overschrijven
van de bestanden, het slecht functioneren of het optreden van beschadigingen aan de
informatiedragers en/of de beschikbare hardware, enz.
Bijgevolg is het opsporen en gedeeltelijk herstellen van de nog resterende beschadigde informatie een
belangrijk probleem waarmee politiediensten en gerechtelijk deskundigen geconfronteerd kunnen
worden bij het onderzoeken van allerlei teruggevonden of in beslag genomen multimediaspelers en dragers, computersystemen, enz.
Doelstelling
De doelstelling van deze masterproef is een aantal softwaretechnieken uit te denken en te
implementeren die toelaten om in bepaalde “datadumps” de beschadigde digitale videobestanden op
een betrouwbare manier terug te vinden, gedeeltelijk te herstellen, en te decoderen.
Voor deze thesis zal samengewerkt worden met het Nationaal Instituut voor Criminalistiek en
Criminologie (http://nicc.fgov.be/). Het NICC is een wetenschappelijke inrichting binnen de F.O.D.
Justitie, waar men forensisch onderzoek verricht in opdracht van en in samenwerking met de
gerechtelijke overheden en politiediensten.
Game theory for multimedia distribution
Supervisors: Jan De Cock and Glenn Van Wallendael
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 2
Number of theses: 2
Contact Person: Niels Van Kets
Keywords:
Location: Zuiderpoort, home
Problem definition
The fair allocation of scarce resource to multiple (self-interested) agents leads to a complex
optimization problem, which can be regarded as ‘games’ between these agents. The foundations for
game theory were laid by John Von Neumann, and its further development (e.g. by John Nash, see
figure) led to applications in various domains such as economics, politics, and biology.
More recently, a number of studies have reported the benefits of game-theoretic approaches in
networked multimedia environments. In these cases, resources (e.g. available bandwidth,
computational resources etc.) have to be shared by multiple agents/players. Depending on the use
case, a different type of game can be played ((non-)cooperative, repeated, static/dynamic etc.). The
goal of these games is to derive an equilibrium strategy for its participants which provides an optimal
payoff or utility.
Goal
In this thesis, the use of game-theoretic approaches will be investigated in a networked multimedia
environment. By deriving equilibrium strategies, an optimal quality level for its participants (e.g. for
multiple users requesting high-resolution video streams) can be obtained. The benefits of these
approaches over more traditional optimization techniques will be investigated. Furthermore, the thesis
can look into dynamic approaches, which can take into account time-varying characteristics of the
multimedia content.
Cloud based content delivery
Supervisors: Gauthier Renard (Barco) and Sebastiaan Van Leuven
Promoters: Peter Lambert and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 2
Number of theses: 2
Contact Person: Sebastiaan Van Leuven
Keywords:
Location: Zuiderpoort, home
Problem definition
The move towards lower end portable consumer devices and networked image consumers brings new
challenges when dealing with high-end applications. A person might for example want to see a
composition of a high number of inputs of high resolution and exotic formats onto his consumer grade
tablet. As this device has neither the processing power nor the network capabilities to do this, but does
have a fully capable HTML5 browser at its disposal, a cloud based approach is needed.
When multiple streams from different locations send their input streams to one or multiple servers, the
streams should not simply be sent to each location in the same format. One might want some streams
in higher quality or low latency and other streams are less critical and can thus have higher
compression. Also, when the video consumer only needs this stream in a small format, there is no need
to send it at full resolution. Some streams will be critical and when the network speed drops, all other
streams could be sent with much higher compression or not be sent at all.
Goal
In this thesis, a framework should be made that takes a number of streams (from the network or local)
as input, does some processing on them and delivers the result in a browser-friendly manner. The
settings and behavioral rules of this processing (resolution, composition, quality, priority) should easily
be set for each consumer and the whole delivery system should be adaptive to changing network
situations in compliance with the defined rules.
Technologies that can be used in this thesis are: web technologies (HTML5, JS), cloud technologies
(Azure, Amazon, Google,…), GStreamer, C/C++
Lowcost multirate video transcoder with parallel hardware acceleration
Supervisors: Michael Catrysse (Televic) and Glenn Van Wallendael
Promoters: Jan De Cock and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Glenn Van Wallendael
Keywords:
Location: Zuiderpoort, home
Problem definition
People want to use their own mobile device for assisting for instance to a conference. One of the key
topics is video with an as short as possible delay and as good as possible quality
Goal
The purpose of this project is a study and an implementation of this challenge. The content of the
project is
1. to investigate the possibilities to provide multiple quality versions of the same video stream
using low cost hardware modules and
2. to implement this project for the IOS system with a as short as possible delay using the Intel
Bay Trail hardware.
Patient record notes through speech to text conversion
Supervisors: Michael Catrysse (Televic)
Promoters: Kris Demuynck and Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1
Number of theses: 1
Contact Person: Michael Catrysse
Keywords:
Location: Zuiderpoort, home
Problem definition
Televic Healthcare offers communication solutions for hospitals, elderly homes and service flats,
tailored to the need and use to a specific application.
Each room is equipped with one of our room terminals which are used as the main access point for the
nurses to the institutions central care registration application. The goal of the care registration is that all
tasks the care givers need to execute on a patient can be in a list displayed on the room terminal. Once
a task is executed the nurse can indicate the task has been executed. This allows structured and
central management and registration of the care given to patients.
But the care registration interface is limited in fields and possibilities. In a lot of cases the care giver
would like to add notes about the patients or the treatment. At this moment these commands have to be
added through an on screen keyboard or through a PC in the nurse room.
Goal
The goal of this thesis would be to investigate and create a system that allows the conversion from
speech to text so the notes can be added to the patient record in a more user friendly way.
The thesis can be divided into a few steps:
1. Investigate what possibilities currently exist to convert speech to text. How can these
technologies be integrated into our system. Can they run on the Linux terminal itself or should it
run on our central server?
2. Evaluate the performance of a few preferred technologies.
3. Integrate this speech to text conversion into our current application so it can be used for real life
tests.
Real time Ultra HD video compression using hardware/software codesign
Begeleiders: Glenn Van Wallendael
Promotor: Jan De Cock and Rik Van de Walle
Doelgroepstudenten: Master in de ingenieurswetenschappen: Computerwetenschappen, Master in de
ingenieurswetenschappen: elektrotechniek
Aantal studenten: 1
Aantal masterproeven: 1
Contactpersoon: Glenn Van Wallendael
Trefwoorden: SoC development, Ultra HD, video compression
Locatie: Zuiderpoort, thuis
Problem definition
Because of the ever increasing resolution of video, software based solutions are not capable of
encoding video in real time anymore. One solution would be to make the compression algorithm
parallel and execute everything on GPUs or hardware. The problem with video compression and
compression in general is that a compression algorithm only works optimally in a serial way. Serial
processing enables the compressor to learn from previous decisions with a smaller size as a result.
Still, some parts of the video encoder can be handled in parallel like the motion estimation and the intra
prediction. Therefore, the ideal solution would be to have a software/hardware codesign in which the
general structure is kept serial with a lot of parallel hardware assistance. For this purpose, specialized
chips are developed which include an ARM processor combined with hardware programmable parts
(FPGA). With both parts available on a single chip, the hardware and software processing can be
combined efficiently.
Goal
During this thesis, the possibilities for hardware/software combined design of the state-of-the-art High
Efficiency Video Coding (HEVC) will be investigated. For this purpose, the student can start from the
open-source
reference
software
for
HEVC
video
compression
(https://hevc.hhi.fraunhofer.de/trac/hevc/browser/trunk). This software can then be run on the internal
processor of the specialized Xilinx Zynq-7000 System on a Chip. This SoC then gives the possibility to
execute certain parts in hardware. Doing this efficiently will be the main challenge in this thesis.
Semantic Web Technologies for Natural Language Understanding
Supervisors: Gaëtan Martens (Nuance Communications)
Promoters: Wesley De Neve en Rik Van de Walle
Study Programme: Master Computer Science Engineering, Master Mathematical Informatics
Number of students: 1 or 2
Number of theses: 1
Contact Person: Gaëtan Martens ([email protected]) en Wesley De Neve
Keywords: Natural Language Processing & Understanding, Sematic Web, data annotation, machine
learning
Location: Zuiderpoort, home
Problem definition
Nuance Communications is the market leader in Natural Language Processing & Understanding
(NLP/NLU) and delivers currently the most significant advancements in speech recognition technology.
NLU is a field of computer science, artificial intelligence, and linguistics concerned with the interactions
between computers and human (natural) languages. As such, NLU is related to the area of humancomputer interaction.
NLU algorithms are based on machine learning to automatically learn rules through the analysis of
large corpora. As a result, these corpora need to be carefully annotated. However, manual data
annotation is an error-prone and very costly process and therefore it is important to be able to minimize
manual data annotation efforts and to maximize data re-usability. The quality of the data is crucial for
the accuracy of the models obtained by applying machine learning techniques.
Goal:
In this master’s thesis, the goal is to use Semantic Web technologies to facilitate the data annotation
process. By using ontologies, the manual data annotation effort can be significantly reduced while
maintaining maximal annotation consistency. These annotations can then be used to train a classifier
and to eventually build an NLU model. The student(s) will work on ontologies and developing
annotation mechanisms using real-world data (provided by Nuance) and then validate the efficiency by
training and testing an NLU model.
Gepersonaliseerde en dynamisch opgebouwde monitoring dashboards
Begeleiders: Ruben Verborgh
Promotor:Sofie Van Hoecke en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Ruben Verborgh
Trefwoorden: Web APIs, Dynamische compositie, Personalised dashboards, GUI development, Data
mining, Service-oriented architectures
Locatie: Zuiderpoort, Campus Kortrijk, thuis
Probleemstelling
Vandaag de dag is er een overvloed aan content, services en functionaliteit, beschikbaar via private
en/of publieke services (SOAP, REST), alsook Web APIs. Door ook sensoren als Web API’s te
implementeren, kunnen er geavanceerde service composities en mashups van deze services en
sensoren gemaakt worden, alsook geavanceerde reasoning gebeuren op de fusion van deze
sensordata.
Een mogelijke toepassing is te vinden in smart home surveillance waar de combinatie van video
sensoren (cameras) en niet-video sensoren (zoals temperatuur, geluid, hartslag) leidt tot het detecteren
van complexe events.
Een andere toepassing is te vinden in condition monitoring van offshore windturbines. Door klassieke
condition monitoring sensoren (vibratie, acceleratie, geluidsemissie, olie-analyse) te combineren met
thermische beelden, kunnen fouten in de windturbines sneller opgespoord worden en ook beter
gelokaliseerd worden met een betere prestatie en opbrengst van de windturbine tot gevolg.
Beide toepassingen vereisen monitoring dashboards die op een gebruiksvriendelijke manier net die
data tonen aan de gebruiker waar zij in interesse hebben. Door de overload echter aan services,
sensoren en Web API’s, is het onmogelijk vaste dashboards te maken die alle relevante data tonen.
Voor de smart home surveillance toepassing is het eenvoudig in te schatten dat het dashboard voor de
behandelende arts er totaal anders dient uit te zien dan het dashboard voor de mantelzorger. Bij
offshore condition monitoring is dat niet anders: onshore personeel dient via het dashboard vlot
foutopsporing te kunnen doen, maar wanneer nodig ook perfect een bootlanding voor te bereiden.
Doelstelling
Het doel van deze masterproef bestaat er in te onderzoeken hoe dashboard dynamisch opgebouwd
kunnen worden op een persoonlijke wijze. Door semigeassisteerde mashups te creëren, krijgt elke
gebruiker, of rol van gebruikers, zijn ideale dashboard dat net die service- en sensordata, maar ook adhoc mashup-data visualiseert waar de gebruiker op dat moment interesse in heeft.
Deze thesis geeft je de kans om je kennis van service-oriented architecturen aan te scherpen en meer
specifiek een grondige ervaring op te doen rond Web APIs, semantiek, dynamische compositie,
datamining en GUI development. Naast het uitvoeren van onderzoek in dit domein, zal je ook een
proof-of-concept GUI ontwikkelen voor één van beide toepassingen naar keuze.
Multimodale emotieherkenning in tekst
Begeleiders: Olivier Janssens
Promotor:Sofie Van Hoecke en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Olivier Janssens
Trefwoorden: Multimodaal, Emotieherkenning, Machine Learning, Twitter
Locatie: Zuiderpoort, , Campus Kortrijk, thuis
Probleemstelling
Vandaag wordt meer en meer inhoud (content) dynamisch aangepast aan de gebruiker. Voorbeelden
zijn Amazon en Netflix die producten voorstellen op basis van de gebruiker zijn interactie met hun
systeem. Maar dit is nog maar het begin. Content kan ook dynamisch gegenereerd worden binnen elearning-applicaties, waarbij de vragen aangepast worden aan de gebruiker zijn capaciteiten, maar ook
emotionele toestand; eHealth-toepassingen, voor de detectie van depressie; computerspellen, waarbij
de moeilijkheid aangepast wordt aan de emotionele toestand van de speler; of marketing, waarbij
reclame wordt aangepast aan hoe de gebruiker zich voelt. Voor een correcte interpretatie van de
gebruiker zijn beleving van de content, is het herkennen van de gebruiker zijn emoties noodzakelijk.
Doelstelling
Bestaande emotieherkenningssystemen in tekst kijken vooral naar de tekst zelf en wat de gebruiker
dus typt. Binnen deze masterproef zal onderzoek gedaan worden naar een multimodale methode om
real-time emoties te herkennen in tekst door het combineren van een keystroke dynamics analyse met
de inhoud van de tekst zelf. Hierbij zal gekeken worden naar WAT de gebruiker typt, alsook HOE de
gebruiker de tekst typt. Door multimodaal te werken en beide methodes te combineren, zal de
accuraatheid van de emotiedetectie verhoogd kunnen worden. Een mogelijke use case waarop de
ontwikkelde methode uitgetest zal worden, is het automatisch detecteren van de onderliggende emotie
bij tweets.
Het onderzoek zal starten met een literatuurstudie waarbij zal gekeken worden naar bestaande
technieken voor emotieherkenning in tekst. Op basis van de resultaten uit het literatuuronderzoek, dient
een multimodale methode ontwikkeld te worden met als doel in realtime emoties te detecteren in tekst.
Daarenboven dient ook een dataset opgesteld te worden om toekomstige emotiedetectiemethoden te
kunnen vergelijken.
Visuele authentieke real-time emotieherkenning
Begeleiders: Olivier Janssens
Promotor:Sofie Van Hoecke en Rik Van de Walle
Richting: master in de ingenieurswetenschappen: computerwetenschappen of elektrotechniek; master
in de wiskundige informatica
Aantal studenten: 1 of 2
Aantal masterproeven: 1
Contactpersoon: Olivier Janssens
Trefwoorden: Machine Learning, Image Processing, Computer Vision, Emotieherkenning, Facial
Expression, Social Robotics
Locatie: Zuiderpoort, Campus Kortrijk, thuis
Probleemstelling
Vandaag wordt meer en meer inhoud (content) dynamisch aangepast aan de gebruiker. Voorbeelden
zijn Amazon en Netflix die producten voorstellen op basis van de gebruiker zijn interactie met hun
systeem. Maar dit is nog maar het begin. Content kan ook dynamisch gegenereerd worden binnen elearning-applicaties, waarbij de vragen aangepast worden aan de gebruiker zijn capaciteiten, maar ook
emotionele toestand; eHealth-toepassingen, voor de detectie van depressie; computerspellen, waarbij
de moeilijkheid aangepast wordt aan de emotionele toestand van de speler; of marketing, waarbij
reclame wordt aangepast aan hoe de gebruiker zich voelt. Voor een correcte interpretatie van de
gebruiker zijn beleving van de content, is het herkennen van de gebruiker zijn emoties noodzakelijk.
Bestaande emotieherkenningssystemen slagen er al in met hoge accuraatheid de emotie van de
gebruiker te detecteren. Nadeel aan deze systemen is echter dat ze werken met geposeerde data,
foto’s en video’s en/of niet in real-time werken waardoor deze oplossingen niet bruikbaar zijn binnen
effectieve toepassingen.
Doelstelling
Binnen deze masterproef zal onderzoek gedaan worden naar real-time authentieke emotieherkenning
op basis van de gezichtsuitdrukking van de gebruiker. Voor deze masterproef kunnen bestaande
datasets gebruikt worden zodat de focus van de masterproef ligt op het ontwikkelen van de
emotieherkenningsmethode. Het onderzoek zal starten met een literatuurstudie waarbij zal gekeken
worden naar bestaande technieken (realtime vs. niet-realtime, authentieke data vs. geposeerde, nietauthentieke data). Op basis van de resultaten uit het literatuuronderzoek, dient een methode ontwikkeld
te worden met als doel in realtime authentieke emoties te detecteren in videobeelden. De student kan
ook een proof-of-concept bouwen door de ontwikkelde methode te integreren in de Ono-robot
(http://www.youtube.com/watch? v=u6DvuMxaMzQ), een robot ontwikkeld binnen de vakgroep die
emoties kan uitdrukken. Door deze robot uit te breiden met een camera sensor, zou bijvoorbeeld Ono
de gedetecteerde gezichtsuitdrukking kunnen nadoen.