24
Conference Autonomous Systems AutSys 2015 25 th – 30 th October 2015 in Cala Millor, Majorca

Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

  • Upload
    ngophuc

  • View
    224

  • Download
    2

Embed Size (px)

Citation preview

Page 1: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

Conference Autonomous Systems AutSys 2015

25th – 30th October 2015 in Cala Millor, Majorca

Page 2: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

3 / 34

Conference Autonomous Systems

Sunday, 25th October 2015

Please take care of the change to European Standard Time on this day. From 15:00 Registration in the Hotel Lobby/Restaurant close to Bar From 18:30 Dinner 20:00 – 21:00 Cocktail Reception and Formal Opening

Information on Conference Schedule, Excursion and other special Announcements of Session and Tutorial Organisers etc. (Videoconference room in basement)

Monday, 26th October 2015

08:30 – 09:30 Keynote Jörg Keller Extending Static Scheduling Algorithms for Moldable Tasks towards Dynamic Scheduling of Multiple Applications with Soft Real-time Properties

09:30 – 09:45 Coffee Break 09:45 – 11:15 Session 1: Systems (Chair: Maleerat Sodanil)

A Cloud-based Building Automation System Daniel Versick, Tom Jaster, Johannes Karow, Djamshid Tavangarian Adaptive Instructional Videos Ingolf Waßmann, Martin Müller, Djamshid Tavangarian Design of a Consensus-oriented and Crowd-verifiable Control Unit Marcel Schaible Why Google Isn't the Future. Really Not. Robert Eberhardt, Mario M. Kubek, Herwig Unger

11:15 – 11:30 Coffee Break 11:30 - 12:30 Session 2: Hardware and Architectures (Chair: Ahmad Haj Mosa)

An Approach to Model-based Code Generation for a Specialized Soft Microprocessor Elena Rozova, Bernd Däne Architecture of Universal Routing Element for Networks on Chip Andriy Osadchuk, Wolfgang Fengler In-circuit Verification of Logic Controllers Michal Doligalski, Jacek Tkacz

12:30 – 14:00 Lunch 14:00 – 18:00 Tutorial: "Challenges on Interactive Network Search"

Mario Kubek From 18:30 Dinner From 19:30 Discussion Round: Social Networks

Tuesday, 27th October 2015

9:00 – 17:00 Social Event Excursion to the beautiful Majorca Nature Meeting Point Hotel Lobby

From 18:30 Dinner From 19:30 Informal Discussion Rounds around the Pool Area

Page 3: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

4 / 34

Conference Autonomous Systems

Wednesday, 28th October 2015

09:00 – 10:15 Session 3: Brain like Computing (Chair: Thippaya Chintakovid) Automatic Classification of Serrated Patterns in Direct Immunofluorescence Images Chenyu Shi, Joost M. Meijer, Jiapan Guo, George Azzopardi, Marcel F. Jonkman, Nicolai Petkov Automatic Optic Disk Localization and Diameter Estimation in Retinal Fundus Images Jiapan Guo, Shenyu Shi, Nomdo M. Jansonius, Nicolai Petkov Towards Unsupervised Familiar Scene Recognition in Egocentric Videos Estefania Talavera, Nicolai Petkov, Petia Radeva

10:15 – 10:45 Coffee Break

10:45 – 12:30 Session 4: Applications and Platforms (Chair: Adrian Dilo) CLAUDE: Cloud Computing for Non-interactive Long-running Computationally Intensive Scientific Applications Andrei Lapin, Eryk Schiller, Peter Kropf WEAVE: Efficient Geographical Routing in Large-Scale Networks Michal Krol, Eryk Schiller, Franck Rousseau, Andrzej Duda Automatic Code Generation – Some Observations Theodor Tempelmeier

[5 min break]

Social Media in Disaster Response – A Literature Review Jens Schwarter, Ulrike Lechner Robustness and Resilience in Transport Logistics – A Literature Review Florian Maurer, Ulrike Lechner

12:30 – 14:00 Lunch 14:00 – 16:00 Session 5: Data and Text Mining (Chair: Daniel Versick)

Empiric Studies of Word Use in Heterogeneous Text Corpora Patrick Krause Ein IR-Verfahren im P2P-Netz auf Basis dezentraler Indizierung Dimitri Samorukov Text Mining with Graph Databases: Traversal of Persisted Token-level Representations for Flexible On-demand Processing Thomas Efer

[5 min break]

The Role of Context Information for Email Analysis Christine Klotz, Anthony M. Ocana Natural Disaster Classification in Thai Tweets Maleerat Sodanil

16:00 – 16:30 Coffee Break

16:30 – 18:30 Session 6: User Behaviour (Chair: Christine Klotz) Human-Computer Interaction Thippaya Chintakovid Applying User Preferences and Co-purchasing Analysis for Item Recommendations Sunantha Sodsee, Maytiyanin Komkhao Mutual Influences between Trust and Online Social Network Systems Son Doan Trung, Mario M. Kubek, Herwig Unger

[5 min break]

Refining User Lifetime Model by Big Five Characteristics Suwimon Vongsingthong, Sirapat Boonkrong, Herwig Unger Emotional Data Collection and Classification Son Hoang Huu

From 19:00 Dinner From 20:00 Discussion Round on Security and Safety

Page 4: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

5 / 34

Conference Autonomous Systems

Thursday, 29th October 2015

09:00 – 13:00 Session 7: Nonlinear Systems (Chair: Marcel Schaible) Cellular Neural Networks-based Emulation of Analog Filters: Theory and Design Principle Nkiediel A. Akwir, Jean Ch. Chedjou, Kyandoghere Kyamakya Cellular Neural Networks-based Emulation of Analog Filters: Selected Applications Nkiediel A. Akwir, Jean Ch. Chedjou, Kyandoghere Kyamakya

[5 min break]

Neurocomputing-based Matrix Inversion Involving Cellular Neural Networks: Black-box Training Concept Ahmad Haj Mosa, Kyandoghere Kyamakya, Mouhannad Ali, Fadi Al Machot, Jean Ch. Chedjou A Recurrent Neural-network-based Ultra-Fast, Robust and Scalable Solver of Linear Equation Systems with Potential Integration in a Speeding-up of FEM Solver Architectures Vahid Tavakkoli, Jean Ch. Chedjou, Kyandoghere Kyamakya

10:30 – 11:00 Coffee Break 11:00 – 12:30 Tutorial "Simulations for Research Results Validation", Part I

Hauke Coltzau 12:30 – 14:00 Lunch 14:00 – 16:00 Tutorial "Simulations for Research Results Validation", Part II

Hauke Coltzau 16:00 – 16:30 Coffee Break 16:30– 18:00 Session 8: Analysis and Simulation (Chair: Sunantha Sodsee)

A Model-based Approach on Superpopular Contents in Online Social Networks Hauke Coltzau, Herwig Unger A New Sneak Circuit Analysis Method for Zero-Voltage Switching Power Electronic Converters Lili Qu

[5 min break]

Simulation und Steuerung gekoppelter Systeme - Wasser und Energie in einer Megastadt Gloria Robleto Role-specific Node Selection via Activating Areas in MANETs Adrian Dilo

18:30 Dinner 19:30 Concluding Remarks and Goodbye Cocktail Reception

Friday, 30th October 2015

From 09:00 Individual Discussions From 11:00 Departure following the private schedules

Page 5: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

8 / 34

Abstracts

Paper 1

Extending Static Scheduling Algorithms for Moldable Tasks towards Dynamic Scheduling of Multiple Applications with Soft Real-time Properties Extended Abstract

Prof. Dr. Jörg Keller

Parallelism and VLSI Group, FernUniversität in Hagen, Germany

We investigate scheduling of multiple parallel applications with real-time constraints and the goal of energy minimization onto a multicore processor with frequency scaling. We propose a method to employ recent static scheduling algorithms for parallelizable tasks and adapt them in order to create a dynamic scheduler for the situation where applications may terminate, new applications may start, or applications change their behaviour, e.g. their degree of parallelism, at runtime. We list achievements so far and open problems. Paper 2

A Cloud-based Building Automation System Daniel Versick, Tom Jaster, Johannes Karow and Djamshid Tavangarian

Research Group Computer Architecture, University of Rostock, Germany

The increasing number of intelligent devices within households can be used to improve energy efficiency and comfort within buildings. Although many smart home devices have the ability to communicate with others, in many cases the communication interfaces are proprietary. Thus, a flexible interoperability between devices of different manufacturers as well as their combined usage to realize complex use cases is currently almost impossible. Unfortunately, existing standards in this field (e.g. KNX, LON) do not reflect important requirements of the huge end-user market such as easy installation and configuration of ensembles of components by different vendors. In this contribution we present a flexible smart home architecture, using current web technologies for communication between devices. It is easily extensible by novel device interfaces and allows an execution in the Cloud as well as on a local smart home server. The execution of smart home applications within the Cloud increases the potential to automatically propose device configurations with increased energy efficiency or user comfort as building information can be evaluated in more detail within the Cloud infrastructure. It is especially possible to employ the collective intelligence of all users to propose improved device configurations. The present contribution will introduce architecture of our smart home platform as well as tools to control and monitor the environment. Paper 3

Adaptive Instructional Videos Ingolf Waßmann1, Martin Müller2 and Djamshid Tavangarian1

1Faculty for Computer Science and Electrical Engineering

Research Group Computer Architecture, University of Rostock, Germany 2mindsquare GmbH, Bielefeld, Germany

Due to recent developments in the field of online teaching (video platforms, Massive Open Online Courses) on the one hand plus a huge selection as well as a simple production and distribution on the other hand, instructional videos are very popular in the transmission of learning contents. Nevertheless videos bring a decisive disadvantage: the search for specific facts in a video as well as the semantic processing for automated linkage with other specific content leads to high efforts. This hinders the effective, learning successoriented selection of specific video segments: already known facts may be involuntarily repeated or can only be manually skipped while watching the video. The same problem exists in the desired review of specific video sections to consolidate existing knowledge. To solve this problem, an authoring tool is presented, which allows the semantically tagging of instructional videos up to adaptive learning contents. By integrating self-assessment tasks with defined follow-up activities to get the current user knowledge, video segments can automatically be skipped or repeated and concurrent learning paths in terms of external content can be included. The presented approach is based on an extension of the learning theory of branched teaching programs by Crowder, which includes learning process-dependent adaptions of the learning path. Additionally, motivation and attention of learners are increased by rules of programmed instruction and reinforcement theory by periodically inserted self-assessment tasks.

Page 6: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

9 / 34

Paper 4

An Approach to Model-based Code Generationfor a Specialized Soft Microprocessor Elena Rozova1 and Bernd Däne2

1Software Architectures and Product Lines Group,

Technische Universität Ilmenau, Germany 2Computer Architecture and Embedded Systems Group,

Technische Universität Ilmenau, Germany

This paper reports on an ongoing case study that deals with model based design of soft microprocessor applications for FPGA implementation. It focuses at model based implementation of functions for generating and optimizing binary program code for single-core and multi-core configurations. The modeling process makes use of a commercial graphical modeling environment. An overview of the solution is given, followed by a deeper look at selected details. Finally some experimental results are presented. Paper 5

Architecture of Universal Routing Element for Networks on Chip Andriy Osadchuk and Wolfgang Fengler

Computer Architecture and Embedded Systems Group

Ilmenau University of Technology, Germany

The evolution of integrated circuit technology made possible a realization of so-called Multiprocessor System on Chip (MPSoC), where multiple heterogeneous processor cores are integrated on a single chip. Networks on Chip (NoC) were proposed as a scalable and flexible communication infrastructure for the design of corebased System on Chip. To score the communicational performance of the NoC System that we are working on, we considered and analyzed different routing algorithms. For our purposes the Distance Vector routing was chosen among many kind of different algorithms for different systems. Distance vector algorithm belongs to the group of deterministic routings, which together with adaptive routings are approved and wide used in a lot of current NoC architectural proposals. Based on the chosen routing algorithm, we created a router architecture which can be reused in design of NoC-based systems. On one hand, this paper shows basics of networking on Networks on Chip within routing algorithms to be used on NoCs and on another hand it presents a router architecture we created. Paper 6

Design of a Consensus-oriented and Crowd-verifiable Control Unit Marcel Schaible

Chair of Computer Engineering, FernUniversität in Hagen, Germany

Contemporary microprocessor designs are in quest for increasing the instruction throughput and in the advent of battery powered devices minimising the power consumption. To achieve this kind of features complex algorithms must be applied, which in turn cumber the verification. However safety-critical systems are demanding for correctness, reliability, availability and a deterministic time behaviour and therefore for verifiable designs. In this paper a consensus-oriented and crowd-verifiable control unit is presented, which is designed for verifiability and concludes with the outline of a consensus-oriented verification methodology. Paper 7

Automatic Classification of Serrated Patterns in Direct Immunofluorescence Images Chenyu Shi1, Joost M. Meijer3, Jiapan Guo1, George Azzopardi1,2,

Marcel F. Jonkman3 and Nicolai Petkov1

1Johann Bernoulli Institute for Mathematics and Computer Science University of Groningen, The Netherlands

2Intelligent Computer Systems, University of Malta, Malta 3Dermatology for Medical Sciences, University Medical Center Groningen (UMCG), University of Groningen,

The Netherlands

Direct immunofluorescence (DIF) images are used by clinical experts for the diagnosis of autoimmune blistering diseases. The analysis of serration patterns in DIF images concerns two types of patterns, namely n- and u-serrated. Manual analysis is time-consuming and challenging due to noise. We propose an algorithm for the automatic classification of serrated patterns in DIF images. We first segment the epidermal basement membrane zone (BMZ) where n- and u-serrated patterns are typically found. Then, we apply a bank of BCOSFIRE filters to detect ridges and determine their orientations with respect to the BMZ. Finally, we classify an image by comparing its normalized histogram of relative orientations with those of the training images using a nearest neighbor approach. We achieve a recognition rate of 84.4% on a UMCG data set of 416 DIF images, which is comparable to 83.4% by clinical experts.

Page 7: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

10 / 34

Paper 8

Automatic Optic Disk Localization and Diameter Estimation in Retinal Fundus Images Jiapan Guo1, Chenyu Shi1, Nomdo M. Jansonius2 and Nicolai Petkov1

1Johann Bernoulli Institute for Mathematics and Computer Science University of Groningen,

The Netherlands 2Department of Ophthalmology, University Medical Center Groningen (UMCG), Groningen,

The Netherlands

Optic disk localization is a necessary step in most automatic screening systems for ophthalmic pathologies. In this paper, we propose a novel approach to automatically determine the location and the diameter of the optic disk in retinal fundus images. Our proposed method is based on the circular shape of the optic disk and the distribution of blood vessels. We first detect blood vessels by a vessel detector named B-COSFIRE filter. Then we apply a bank of anti-symmetric Gabor filters on the grayscale fundus image to detect edges. Finally, we identify the optic disk by applying the Circular Hough Transform (CHT) to detect candidates for circles and select among them the one that encloses the highest proportion of vessel pixels. We evaluate the proposed approach on two publicly available data sets: CHASEDB1 and ONH Hunter. We correctly localize 96.43% and 96.97% of the optic disks in these two sets, respectively. For each image, we compare the manually determined hight (vertical diameter) of the optic disk with the automatically computed one by the CHT. The relative errors we obtain for the two data sets of the optic disk are 10.69% and 8.78%, respectively. Paper 9

Towards Unsupervised Familiar Scene Recognition in Egocentric Videos Estefanía Talavera1,2, Nicolai Petkov1 and Petia Radeva2,3

1University of Groningen, Netherlands

2University of Barcelona, Spain 3Computer Vision Center, Barcelona, Spain

Nowadays, there is an upsurge of interest in using lifelogging devices. Such devices generate huge amounts of image data; consequently, the need for automatic methods for analyzing and summarizing these data is drastically increasing. We present a new method for familiar scene recognition in egocentric videos, based on background pattern detection through automatically configurable COSFIRE filters. We present some experiments over egocentric data acquired with the Narrative Clip. Paper 10

Cellular Neural Networks-based Emulation of Analog Filters: Theory and Design Principle Nkiediel Alain Akwir, Jean Chamberlain Chedjou and Kyandoghere Kyamakya

Institute of Smart System Technologies, Transportation Informatics

Alpen Adria University, Klagenfurt, Austria

We develop and validate through some illustrative examples an efficient concept based on cellular neural networks for the synthesis of analog filters. Several types of filters (i.e. Low-pass, High-pass, Band-pass, and Band-stop) are envisaged each of which is emulated in the form of the CNN mathematical model. The resulting coefficients of the CNN mathematical model (called CNN templates) are derived for each type of filters. Correspondences are established between the parameters of the CNN- mathematical model and the physical components (i.e. resistors, capacitors, inductances, op-amps, etc.) of the filters. The key contribution of this work is to demonstrate the potential of using cellular neural networks (CNN) as a universal concept for analog filters modelling and simulation. The main motivation of developing the CNN- concept for the emulation of analog filters is justified by its excellent features (e.g. high flexibility, good stability, and high accuracy). Further, the CNN-concept developed is a framework which can be efficiently used for a straightforward conversion of analog filters into digital filters.

Page 8: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

11 / 34

Paper 11

Cellular Neural Networks-based Emulation of Analog Filters: Selected Applications Nkiediel Alain Akwir, Jean Chamberlain Chedjou and Kyandoghere Kyamakya

Institute of Smart System Technologies, Transportation Informatics

Alpen Adria University, Klagenfurt, Austria

This paper presents a concrete implementation of analog filters using cellular neural networks (CNN). Four types of analog filters are implemented: the High-pass, Low-pass, Band-pass, and Bandstop filters. These filters are further emulated using cellular neural networks. The filters emulated using the CNN- paradigm are modelled mathematically by ordinary differential equations. These equations are further used to implement analog filters on a digital platform (SIMULINK). Using SIMULINK, the numerical analysis is conducted and the dynamical behavior of filters is analyzed. A benchmarking is considered as proof of concepts in order to demonstrate the effectiveness of the concept developed. This benchmarking leads to a comparison of the results obtained by the emulated CNN concept developed with the theoretical results/predictions. The main motivation of developing the CNN- concept for the emulation of analog filters is justified by its excellent features (e.g. high flexibility, good stability, and high accuracy). These features are used (in this paper) as performance metrics in order to validate both the effectiveness and efficiency of the CNN-concept developed. Paper 12

Neurocomputing-based Matrix Inversion Involving Cellular Neural Networks: Black-box Training Concept

Ahmad Haj Mosa, Kyandoghere Kyamakya, Mouhannad Ali, Fadi Al Machot and Jean Chamberlain Chedjou

Institutes of Information and Communication Technology

Transportation Informatics, Alpen Adria University, Klagenfurt, Austria

This paper does present and validate the concept of a blackbox trained neurocomputing based matrix inversion system. Hereby, the neurocomputing processor is realized by a Cellular Neural Network (CNN) system. First, the high significance of an ultrafast and realtime matrix inversion function for science and engineering is highlighted. Then we briefly describe a series of selected technical contexts where such a function is critical. A critical survey of related approaches involving recurrent neural networks (RNN) is conducted whereby pros and cons are undersored. In contrary to these last listed concepts, to be categorized as white-box ones, we do then present our novel black-box alternative which does involve a Cellular Neural Networks universal processor system. A comprehensive training concept is presented and validated along with a systematic extensive testing for an overall validation. For illustrative purposes, some matrix samples to be inverted, of dimensions 3_3 and 5_5, are selected and the experiments do confirm that the CNN based and black-box trained concept does work and perform very well. Paper 13

A Recurrent Neural-network-based Ultra-Fast, Robust and Scalable Solver of Linear Equation Systems with Potential Integration in a Speeding-up of FEM Solver Architectures

Vahid Tavakkoli, Jean Chamberlain Chedjou and Kyandoghere Kyamakya

Institute of Smart System Technologies, Alpen Adria University, Klagenfurt, Austria

Various algorithms exist to solve linear algebraic equations. Most of them are very good algorithms, however which could be implemented only on single processor computers. This makes these algorithms becoming inefficient when trying to implement them on multi-processor platforms. The main root of the problem lies in the nature of the algorithms as they are essentially designed to be used on single processors. Hence, the search for new algorithms that fits better for implementation on parallel systems is necessary. Using parallel computing frameworks like neural networks can provide a good basis to support algorithms or concepts highly compatible with parallel platforms and thereby ensuring a low implementation cost. In this paper, we do suggest and demonstrate a new way of solving linear algebraic equations using a Cellular Neural Network (CNN) Processor. Although similar works have been performed by using different types of Neural Networks such as Recurrent Neural Networks (RNN) and Artificial Neural Networks (ANN) the fact of involving the CNN nonlinearity does increase convergence speed and provide feasible solutions for an implementation on analog processors.

Page 9: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

12 / 34

Paper 14

A Model-based Approach on Superpopular Contents in Online Social Networks Hauke Coltzau and Herwig Unger

Chair of Communication Networks, FernUniversität in Hagen, Germany

In this article, a basic model to describe the occurrence of superpopular contents in online social networks is discussed. Two scenarios with different content propagation mechanisms are investigated. It is shown that the occurrence of superpopular contents is robust against both the model parameters and the propagation mechanisms. Paper 15

Text Mining with Graph Databases: Traversal of Persisted Token-level Representations for Flexible On-demand Processing

Thomas Efer

Natural Language Processing Group, Universität Leipzig, Germany

This contribution introduces a new text modelling paradigm that allows for on-demand Text Mining approaches without the need for pre-calculated statistics or data structures other than generic edgetyped adjacency information in a graph database. A simple use cases is presented, for which these new text storing and querying methods can prove beneficial. Furthermore a prototypical implementation is presented and analyzed, showing an adequate runtime behavior for interactive queries. Paper 16

Social Media in Disaster Response - A Literature Review Jens Schwarter and Ulrike Lechner

Fakultät für Informatik Universität der Bundeswehr München, Germany

Conferences series as, e.g., the ISCRAM, HICSS or the Autonomous Systems witness the relevance of social media for crisis and disaster response with both design oriented and empirical research. This submission reviews the extant body of literature in an appreciative meta-review. Research interest includes design approaches, conceptual foundations and the empirical evidence of use and utility of social media use. Paper 17

Robustness and Resilience in Transport Logistics - A Literature Review Florian Maurer1 and Ulrike Lechner2

1Research Centre for Process- and Product-Engineering Vorarlberg University of Applied Sciences, Austria

2Fakultät für Informatik Universität der Bundeswehr München, Germany

”Robustness” and ”resilience” are relevant concepts in crisis management and, latest since the 9/11 attacks, in supply chain management too. In this article, the concepts of ”Robustness” and ”Resilience” and their interrelations are studied in a structured literature review. The literature review is based on 99 journal articles and results are structured in descriptive statistics, content analysis and graph analysis. Paper 18

Natural Disaster Classification in Thai Tweets Maleerat Sodanil

Faculty of Information Technology King Mongkut’s University of Technology North Bangkok, Thailand

Websites and social media are become an essential sources of information during any events, especially natural disasters. This paper focuses on the development of a classification model using the messages from the past news websites and tweets during an earthquake disaster event in order to identify the purpose of the message posted to Twitter about the current incidents related to earthquake disaster. A comparison between the Support Vector Machine and Naive Bayes have been evaluated in terms of accuracy. The results show that the support vector machine given highest accuracy than other. However, this approach can be served as useful tools for organization in order to prepare disaster management plans and relief.

Page 10: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

13 / 34

Paper 19

Applying User Preferences and Co-purchasing Analysis for Item Recommendations Sunantha Sodsee1 and Maytiyanin Komkhao2

1Department of Data Communication and Networking Faculty of Information Technology

King Mongkut’s University of Technology North Bangkok, Thailand

2Department of Computer Science Faculty of Science and Technology Rajamangala University of Technology Phra Nakhon, Bangkok, Thailand

A novel recommendation process for use in model-based recommender systems is presented. It utilises both user preferences and a co-purchasing network, which connects users with all items each one bought, in order to cope with the cold-start, the sparsity and the shilling-attack problems frequently occurring in recommender systems. To create an effective behavioural model, hierarchical clustering is applied on a user-item rating matrix with the importance of items derived from the co-purchasing network. Experimental results show that the proposed method recommends the most satisfying item, only. This uniqueness in recommendation is achieved by considering user preferences in combination with Degree Centrality. Paper 20

CLAUDE: Cloud Computing for Non-interactive Long-running Computationally Intensive Scientific Applications

Andrei Lapin1, Eryk Schiller2 and Peter Kropf1

1University of Neuchâtel, Switzerland 2University of Bern, Switzerland

Cloud computing appears as a perfect environment for executing non-interactive long-running computationally intensive applications that often appear in various scientific domains. In this paper, we present CLAUDE—a cloud system that offers researchers an easy-way to execute their long running applications “in the cloud”. To demonstrate the potential, we study the performance of an example scientific computing managed by CLAUDE in the virtual and bare bare metal environments. Paper 21

Automatic Code Generation - Some Observations Theodor Tempelmeier

University of Applied Sciences, Rosenheim, Germany

The idea of automatic generation of code is investigated by means of some examples. Two levels of automatic code generation are compared: code generation from a modelling language to a programming language, and code generation from a programming language to machine code. Some similarities, but also some discrepancies between these levels are shown with some concrete examples. One of the biggest impediments to automatic code generation from modelling languages is the lack of a precise semantic basis of some of these languages. Paper 22

In-circuit Verication of Logic Controllers Michał Doligalski and Jacek Tkacz

Institute of Computer Engineering and Electronics,

Faculty of Electrical Engineering, Computer Science and Telecommunications, University of Zielona Góra, Zielona Góra, Poland

In the paper the architecture of the self-reconfigurable system with faults detection mechanism is proposed. The application of the test unit and its integration with logic controllers enables error detection before a controller is run. The application of the partial reconfiguration enables the recovery of proper controller configuration

Page 11: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

14 / 34

Paper 23

Role-specific Node Selection via Activating Areas in MANETs Adrian Dilo

Chair of Communication Networks, FernUniversität in Hagen, Germany

A new method of node selection in MANETs is being presented. Nodes are selected by striking an activation area on their trajectory. Selected nodes trigger various network and user dependant roles. Activation Areas are defined by GPS information and evaluated GSM/UMTS and WiFi received power information. Indoor and outdoor applications are distinguished due to different RF propagation conditions. GPS based outdoor activating areas are table driven. The tables are distributed via GSM/UMTS cell broadcast. The table content defines the activation area purpose, quantity, the size and its location to manage network tasks. Indoor activation areas are generated on request and have less features at present. Paper 24

Why Google Isn't the Future. Really Not. Robert Eberhardt, Mario M. Kubek and Herwig Unger

Chair of Communication Networks, FernUniversität in Hagen, Germany

Searching the Internet means today to use Google or any other big, centralised search engine. Besides wasting a huge amount of energy and other resources, those systems are neither trustworthy and scalable nor can they generate satisfying search results. After an analysis of the reasons for it, a new concept for a decentralised search engine is presented and some estimations on the complexity of search with it are given. The concept shall not be understood as the ultima ratio, but as a start of a discussion to find future search solutions. Paper 25

The Role of Context Information for Email Analysis Christine Klotz1 and Anthony M. Ocaña2

1Chair of Communication Networks, FernUniversität in Hagen, Germany

2School of Communication and Journalism, Minnesota State University Moorhead, USA

Email is one of the most important communication media, but text-based, asynchronous communication lacks interpersonal cues. To estimate the role of contextual cues for email analysis, human annotators rated conflict as one shaping of interpersonal characteristic on text messages. The results reveal that context information about the interlocutors both as individuals and towards each other is needed for an accurate assessment. Intelligent systems with user models incorporating both personal and interpersonal characteristics, and contrived by tracking conversations in the long term could support communication in the future. Paper 26

Empiric Studies of Word Use in Heterogeneous Text Corpora Patrick Krause

Chair of Communication Networks, FernUniversität in Hagen, Germany

In order to handle big document corpora in a new Peer-to-Peer search engine, it is necessary to understand the characteristics of corpora. Therefore several questions are of interest. For example, do documents form inherent groups based on type occurrence? Or, is it possible to find types which divide the corpora into categories or groups? A corpora of about 18500 documents was examined in order to get answers to these and other questions. In the second part of this paper, the results of the implementation of a slightly modified Naive-Bayes-Approach are presented. With this modification, the problems of null results and too small results can be avoided.

Page 12: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

15 / 34

Paper 27

Ein IR-Verfahren im P2P-Netz auf Basis dezentraler Indizierung Dimitri Samorukov

Lehrstuhl für Kommunikationsnetze, FernUniversität in Hagen, Germany

Within the peer-to-peer networks the information retrieval is still a challenging task. The system, suggested here, provides an information retrieval functionality based on the distributed indexing of peers. Distribution means here, that a set of peers works in a collective manner on indexing of the whole peer-to-peer net. The expectation is, that the relocation of the peer-indexing functionality from a single peers into a peer-cluster, will allow a adaption of specialized information retrieval approaches for file types or human languages. Zusammenfassung: Innerhalb von P2P-Netzen stellen die IR-Verfahren weiterhin eine Herausforderung dar. Hier wird ein System vorgeschlagen, das auf Basis von dezentraler Indizierung der Teilnehmer ein IR-System bereitstellt. Dezentralität bedeutet hier, dass eine Menge von Peers gemeinsam an der Indizierung vom P2PNetzarbeiten. Erwartungshaltung ist, dass die Verlagerung der Indizierungsfunktion aus den Peers in die Indizierungscluster spezialisierte IR-Verfahren für Dokumententypen und Sprachen erlauben wird. Paper 28

Mutual Influences between Trust and Online Social Network Systems Son Doan Trung, Mario M. Kubek and Herwig Unger

Chair of Communication Networks, FernUniversität in Hagen, Germany

Online Social Networks provide many possibilities to people to make new contacts all over the world. Nevertheless, the derived friendship relations are usually less confident compared to the reallife friendships due to missing possibilities to build up trust. Therefore, a method is introduced to derive trust from user activities in the network. A global trust judgement is processed considering the mutual influences of all network users and stochastically being confirmed by randomly chosen groups of users. Simulation results show the power of the approach. Paper 29

Refining User Lifetime Model by Big Five Characteristics Suwimon Vongsingthong1, Sirapat Boonkrong1 and Herwig Unger2

1King Mongkut’s University of Technology North Bangkok, Thailand

2Chair of Communication Networks, FernUniversität in Hagen, Germany

User lifetime estimation is needed to predict activities, especially information distribution in a more precise manner. Therefore, it is crucial to refine usual parametric model by introducing user characters as catalysts for social interaction. Individual characteristics are proven to be significantly influenced to online and offline time of social network users. The model based clustering of user characteristics is finally developed and validated for the user in online social network from sample extracted from a survey with over one thousand college students. Paper 30

Evaluation and Adaptation of Synchronisation Primitives in PEARL-90 Christina Houben

Chair of Computer Engineering, FernUniversität in Hagen, Germany

PEARL is a real-time programming language with a user friendly task state transition system which renders PEARL explicitly appropriate for highly safety-critical applications. We present, evaluate, select and adapt synchronisation primitives of PEARL-90 and Multiprocessor-PEARL. This topic is decisive to improve dependability and safety of concurrent software. It fosters functional safety as defined in the international standard IEC 61508-3.

Page 13: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

16 / 34

Forschungsanträge als Zeitvergeudung

Von: Herwig Unger LG Kommunikationsnetze, FernUniversität in Hagen, 58084 Hagen [email protected]

Innovation, d.h. wissenschaftlicher Fortschritt, entsteht, wenn das Gehirn eine völlig neue Sicht auf Dinge zuläßt, meist durch Kombination oder Vergleich von Dingen, die bis dato eigentlich nicht zusammengebracht wurden, oder aber durch eine völlig neue Anordnung elementaren Wissens bzw. grundlegender Schritte. Dies passiert in unserem Unterbewußtsein, typischerweise in Situationen, in denen man sich eigentlich nicht ursprünglich mit dem jeweiligen Problem befaßt. Hierzu benötigt das Gehirn Inspiration, Muße und z.T. auch die eine oder andere nicht fachliche Anregung. Es braucht einen Ort, „an dem man stillstehen, eine Pause einlegen, eine Frage stellen oder nachdenken kann“ [1]. Bereits Einstein äußerte mit Rückblick auf sein Schaffen, daß er „niemals eine seiner Entdeckungen durch den Prozeß rationalen Denkens“ gemacht hätte. Genau diese kreative Atmosphäre zerstören Politik und Universitätsleitungen aber heute gerade an den Universitäten und Hochschulen, an denen im Normalfall neue Ideen entstehen sollen, durch ein wachsendes Übermaß an Bürokratie, einen unverhältnismäßig ausgeprägten Kontrollzwang sowie die krankhafte Sucht, alles quantitativ messen, bewerten und vergleichen zu müssen [2].

Es bleibt unbestritten, daß die Geburt einer neuen Idee lediglich 20% der Arbeit ist, wissenschaftliche Innovation in der Praxis nutzbar zu machen, und daß es Schweiß und auch Beziehungen sowie Geld braucht, um dies durchzusetzen. An dieser Stelle soll nicht diskutiert werden, bis zu welchem Punkt diese (durchaus auch risikobehaftete) Aufgabe mit staatlichen Mitteln an den Universitäten erfolgen sollte. Fakt ist jedoch, daß Drittmittelanträge die Wissenschaft ausschließlich auf diese verbleibenden 80% reduzieren, wohl am ehesten, weil dies der kontrollier- und meßbare Anteil der Arbeit ist. Völlig vergessen wird an dieser Stelle, daß dieser Teil die Ideenfindung als elementare Vorbedingung hat. Politiker und Universitätsverwaltungen behaupten unisono, daß eine Finanzierung über Anträge ausgewählter, wohldurchdachter und über Jahre exakt vorausgeplanter Forschungsprojekte zu mehr Wettbewerb und ergo hoher Qualität der Forschung beitrage. Somit ist es heute gängige Praxis, den Erfolg eines Wissenschaftlers vor allem an der Summe der eingeworbenen Drittmittel zu bewerten; an manchen Universitäten ist das sogar der in Berufungsverträgen einzig festgeschriebene, quantitative Evaluationsparameter, der unweigerlich zu einer Gehaltszulage führen kann. Dabei wird über die eingeworbene Geldmenge unzulässigerweise, aber doch unmittelbar, eine vergleichende Erfolgsbewertung herbeigeführt, z.B. die eines „billigen“ mathematischen Grundlagenprojektes im Vergleich zu einem nur mit hohem technischen und damit finanziellen Aufwand durchführbaren Projekts im Bereich der Nanotechnologie. Je tiefer man in die gängige Praxis eindringt, desto mehr zeigt sich, daß Politiker und Wissenschaftsmanager sich in keiner Weise in den Details der von ihnen verwalteten Prozesse, nämlich der Erzeugung von Innovation, auskennen und begreifen, wie neue Assoziationen und Ideen im menschlichen Gehirn zustande kommen.

Es wäre nun natürlich unsinnig, einfach zu behaupten, daß der Zwang, Drittmittel einzuwerben, lediglich ein Armutszeugnis für den Staat sei, seine hehren Plätze des Fortschritts – namentlich seine Universitäten – angemessen zu finanzieren und außerdem eine wirklich kreative und ideenbildende Atmosphäre zu schaffen, in der neuer Geist gedeihen kann. Durchdringt man die eingangs diskutierten Wirkmechanismen in der Realität, so scheint die ganze Vorgehensweise noch viel mehr als ein Armutszeugnis zu sein, nämlich eher ein unzulässiger, vorsätzlicher Eingriff in die Freiheit der Forschung, eine lobbygesteuerte Ausrichtung und Beschränkung von Forschungszielen und obendrein eine Potential- und Ressourcenverschwendung höchsten Maßes.

Page 14: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

17 / 34

Folgen wir in der Argumentation dem Prozeß einer solchen Projekteinwerbung, und beginnen wir mit der

Ausschreibung,

d.h. dem Prozeß, in dem ein Thema für ein förderungswürdiges Arbeitsgebiet festgelegt wird. Dies passiert zum einen entweder direkt durch die (lobbyistisch) beeinflußte Politik oder aber durch Gremien im Überfluß vorhandener, kaum zu übersehender Stiftungen und Förderorganisationen, die ihrerseits wiederum über die Finanzen direkt abhängig von Politik und Wirtschaft sind. Oftmals äußert sich dies schon darin, daß unmittelbar Vertreter der entsprechenden Gruppen in den Auswahlausschüssen sitzen, flankiert von einigen privilegierten „Exzellenzprofessoren“, die sich oft dadurch auszeichnen, zu einem früheren Zeitpunkt bereits Finanzspritzen der jeweiligen Sponsoren erhalten zu haben und daher besonders kompetent als deren Interessenvertreter erscheinen. Selbst wenn es einem kauzigen Vertreter der „Nicht-Mainstream-Forschung“ gelingt, einem solchen Ausschuß anzugehören, ist dies durch das übliche Beschlußverfahren mit einfacher Mehrheit wohl eher ein kosmetischer Akt der Gesichtswahrung. Es wäre also ein Widerspruch gegen die menschliche Psyche, von derartigen Kommissionen Ausschreibungen zu erwarten, die dem Mainstream, dem politischen Willen oder den (wirtschaftlichen) Interessen und (gewünschten) Forschungsergebnissen der Beteiligten widersprächen [3]. Für innovative, vielleicht zunächst einmal verrückt klingende Ideen von Newcomern ist in diesen Themenvorgaben damit natürlich schon ein Platz verwehrt und wenn doch, dann nur aus Zufall. An dieser Stelle soll natürlich niemandem unterstellt werden, heimlich bestimmte Ergebnisse von vormals finanzierten Projekten bereits verfügbar zu haben, die dann glücklicherweise mit einer passend formulierten Ausschreibung übereinstimmen. In der sich anschließenden Phase der

Projekterstellung

geht es dann für die Wettbewerber vor allem darum, den Stand der Technik, die beabsichtigten Ziele ihrer Forschung und Methoden, diese zu erreichen (i.a. in einem detaillierten Arbeitsprogramm ausgedrückt), darzustellen und dabei natürlich penibel die (scheinbar bei jeder Organisation willkürlich) festgelegten, umfassenden Formalien und Rahmenbedingungen einzuhalten. Allein dies erfordert bei ca. 20–30 Seiten Text, einer Recherche bzgl. einer wirklich neuen Idee verbunden mit einigen Experimenten oder Simulationen zur Abschätzung der darzustellenden Machbarkeit und des Projektrisikos bei ernstzunehmender wissenschaftlicher Arbeit gut und gerne 3–4 Monate, die man natürlich als unabhängiger, nicht vorinformierter Wissenschaftler kaum hat (ergo müßte man eigentlich noch 1–2 Monate mehr für Politik, Beziehungspflege usw. einplanen und von seiner Zeit für die Wissenschaft abziehen), da man meist viel kurzfristiger vor dem letzten Einreichungsdatum von der relevanten Ausschreibung erfährt. Die Quelle [4] nennt als einige von wenigen Zeiten, die das (elektronische) Networking von Führungskräften heute benötigt, und nennt als wöchentlichen Aufwand dafür etwa 9–16h, d.h. im Durchschnitt 25–40% der Arbeitszeit. Führungskräfte aus der Industrie geben im mündlichen Gespräch hier auch gerne einmal 50–60% als für den Erfolg notwendig an. Für einen Professor heißt das letzten Endes nichts anderes, als daß er eine durchschnittliche Qualifikationszeit von 20 Jahren vom Studium bis zur Berufung dafür verwendet hat, um auf Smalltalk-Niveau Kontakte herzustellen. Die Gespräche verlaufen dabei typischerweise nach dem vom Paarungsverhalten her bekannten quantitativen Anbiederungsschema des Meistbietenden: „Meine Projekte – Meine Finanzen – Meine Mitarbeiter“, und nicht etwa durch Vorzeigen wissenschaftlicher Qualitäten bei der Diskussion eines wissenschaftlichen Problems. Daher trägt dafür eingesetzte Zeit selbstredend nicht zum Fortschritt der Wissenschaft oder eigener Projekte bei.

Noch komplexer wird die Antragstellung, wenn der Umfang des Projektes nicht mehr in einem Einzelantrag unterzubringen ist oder aber die Ausschreibung eine Gruppe von ggf. internationalen Antragstellern (z.B. bei EU-Anträgen) verlangt. Die Zusammenstellung eines solchen Konsortiums muß dabei oft politischen Zielen und Vorgaben genügen und erfordert oft tiefgreifende Kenntnisse der Psychologie des Erwachsenenalters, um alle Beteiligten zu koordinieren, mehr als einmal an einen Tisch und zur Unterschrift zu bringen. Ärger bei der Projektausführung wird hier bereits bei den meisten Projekten vorprogrammiert.

An vielen Universitäten ist vor der Einreichung eines hart erarbeiteten Projektvorschlages dann noch der Gang durch die Verwaltung gesetzt: In weiteren auf den Dienstweg zu bringenden Unterlagen muß eine

Page 15: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

18 / 34

Projekt- und Drittmittelanzeige erfolgen und nachgewiesen werden, daß man alle ggf. benötigten Mittel der Universität entsprechend den Richtlinien des öffentlichen Dienstes verwendet und nicht etwa durch die eingeworbenen Drittmittel korrupt und erpressbar geworden ist [5]. Natürlich gehen die Verwaltungen geflissentlich immer davon aus, daß der Antragsteller „Böses im Schilde führt“, legen ihm zumindest weitere Steine in den Weg oder aber strapazieren seine Nerven mit weiteren Rückfragen, Bedenken, Diskussionen usw. Da Transferbeauftragten- und Forschungsreferentenstellen usw. eher mit Kadern aus hochschulinternen Umstrukturierungsprogrammen besetzt sind, wird man hier – im Vergleich zu den USA – wohl in den seltensten Fällen projekterfahrene Manager finden, die die Universität erfolgreich vermarkten wollen und umfangreiche Verbindungen und Netzwerke mit der (lokalen) Industrie aufgebaut haben. So sich ein solch kompetenter Kandidat einmal auf eine derartige (im Gegensatz zum wissenschaftlichen Prekariat meist zeitlich unbefristete) Stelle verirrt hat, ist wohl eher sein zügiger Abgang in eine wesentlich besser dotierte Stelle bei einer Beratungsagentur zu erwarten. Die Nutzung solcher privater, profitorientierter Berater ist wiederum bei der Erstellung vieler komplexer Projektanträge (bei denen bereits offen mitgeteilt wird, daß Lobbyarbeit erforderlich ist) schon fast obligatorisch. Kommt es dann zu einer Einreichung, kann man in den folgenden 6–12 Monaten der

Projektbegutachtung

eigentlich gar nichts mehr tun, da ein verfrühter Beginn der Forschungsarbeiten natürlich selbst im Genehmigungsfall nicht rückwirkend finanzierbar ist und sich daher von selbst verbietet. Das ist natürlich Zeit, die ein (finanzstarker) Wettbewerber insbesondere in Zeiten kurzlebiger Relevanz von Forschungen (z.B. auf dem Gebiet der Informatik) hat, um mit eigenen Ergebnissen zu brillieren. Da der Peer-Begutachtungsprozeß durch anonyme Gutachter erfolgt, oftmals auf Grund von Zeitmangel jedoch nicht einmal durch diese selber, sondern eher durch weniger qualifiziertes Personal aus der zweiten oder dritten Reihe (vgl. hierzu auch [2]), und ohne irgendeine Anhörung oder tiefergehende Befragung der Antragsteller einhergeht, schlägt Papierform alles: insbesondere geschickte, aber in ihr Labor verliebte Experimentatoren oder brilliante, aber soziologisch untalentierte Theoretiker werden daher oft benachteiligt. Der Antragsteller fragt sich u.U. insbesondere, wie seine in einem frühen Stadium offengelegten Ideen hierbei gegen geistigen Diebstahl geschützt sind. Irreführend ist es in diesem Prozeß ferner, daß die Gutachter selber nicht vom Antragsprozeß ausgeschlossen sind: Zwar begutachten sie selbstverständlich nicht ihre eigenen Anträge, sind aber natürlich in diesem Fall in ihrer Arbeit nicht völlig unabhängig. Bei der relativ überschaubaren Anzahl möglicher Antragsteller in einem Fach kann dabei sogar davon ausgegangen werden, daß selbst in einem doppelt anonymen Begutachtungsprozeß (d.h. in dem Antragsteller und Gutachter anonymisiert wurden) der Antragsteller allein aus dem detaillierten Antragsgegenstand, der verwendeten Wortwahl und den Zitationen mit 99%iger Wahrscheinlichkeit für einen sich in seinem Fach auskennenden Kollegen mit den entsprechenden Konsequenzen identifizierbar ist.

Die Ergebnisse dieses Gutachtensprozesses bekommt der Antragsteller wiederum schriftlich mitgeteilt: Eine Ablehnung enthält meistens eine halb- bis maximal zweiseitige, allgemein gefaßte und juristisch wasserdichte Begründung, gegen die entweder keine Revision eingelegt werden kann oder selbige auf Grund der Rahmenregeln oder Allgemeinheit der Formulierungen schon unmöglich gemacht wurde. Generell wird hierbei natürlich keinerlei Transparenz des Entscheidungsprozesses vermittelt. Es ist dem Antragsteller kaum vergönnt, aus den kurzen Bemerkungen den Entscheidungsprozeß nachzuvollziehen, etwas über bevorzugte Mitbewerber bzw. die beschlossene Mittelvergabe zu erfahren, detaillierte Rückschlüsse für seine eigene Arbeit zu erhalten oder gar Informationen über die von den Gutachtern erkannten Fehler zu bekommen. Frustration ist typischerweise die einzige Folge derartiger Ablehnungsschreiben.

Im Falle einer

Projektgenehmigung

kommt der Antragsteller in den Genuß der erhofften, zwei- bis vierjährigen Finanzierung. Diese kommt natürlich mit einer Richtlinie für die Mittelverwertung einher, die durchaus 280–300 Seiten umfassen kann. Da wirkliche Hilfe bei Verwaltung der Drittmittel von den ausgedünnten und überlasteten, aber durchaus auch inkompetenten Verwaltungen der Universitäten kaum zu erwarten ist, empfiehlt sich ein

Page 16: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

19 / 34

Studium derselben von selbst, zumal meist eindrückliche Strafverfolgungen im Verfehlungsfalle inklusive einer Mittelrückzahlung angedroht werden.

Analysiert man, was man erwarten kann, so stellt man fest, daß bei den meisten Projektausschreibungen von einer Grundausstattung ausgegangen wird und das Fördergeld in der Regel lediglich eine Fehlbetragsfinanzierung ist; vorzugsweise für Personalmittel für sogenannte junge Wissenschaftler. In vielen Fällen müssen diese ihre Arbeit stundenweise abrechnen, so daß zu gewährender Urlaub, übliche wissenschaftliche Praxis (wie z.B. Konferenzbesuche und weitergehendes Literaturstudium) zum Luxus verkommen, den der Geförderte irgendwie aus eigenen Mitteln – weil gesetzlich vorgeschrieben – zu bezahlen hat. Dies führt vielfach dazu, daß das wissenschaftliche Prekariat in befristete Teilzeitverträge gezwungen wird, da die Anfertigung einer Dissertation natürlich nicht vom Projekt unterstützt wird. Weil eine einfache Projektlaufzeit für die Erarbeitung einer dissertationswürdigen Leistung kaum ausreicht, wird der junge Wissenschaftler automatisch gezwungen sein, neue Projektanträge im Namen und zum Ruhm seines Chefs auszuarbeiten und durchzubringen, während letzterer sich zum gleichen Zeitpunkt wiederum um die politische Seite der (nächsten) Antragstellung kümmern muß. Zieht man in Betracht, daß im besten Falle eine Genehmigungsrate von 10–30% bei eingereichten Anträgen zu erwarten ist, wird klar, daß man ca. 3–6 Anträge als routinierter „Projektprofessor“ verfassen muß, um einmal erfolgreich zu sein. Das verschiebt die Profitabilität einmal mehr weiter in den negativen Bereich.

Auf der Seite des Chefs, d.h. des Professors, sieht das Ganze noch unerfreulicher aus, falls selbiger nicht unter Geltungssucht, Liebe zu sinnlosen Sitzungen und Reisen sowie Politikmachen leidet und noch an seiner wissenschaftlichen Arbeit interessiert ist: Seine (neuen) Ideen liegen lange Zeit brach, während er kaum Zeit hat, sich mit deren Weiterentwicklung zu befassen. Im besten Falle bekommt er einige junge Wissenschaftler, die in prekären, kaum inspirierenden Verhältnissen leben und sich mehr um „ihr Essen am nächsten Tag“ denn um Wissenschaft und die Ideen ihres Chefs kümmern. Nur ganz selten kommt es vor, daß so ein junger Wissenschaftler auch noch den Mut aufbringt, einen wirklichen wissenschaftlichen Disput mit seinem Chef zu führen, ein Widerwort zu geben oder evtl. eine eigene (vielleicht bessere) Idee gegen die des Professors zu stellen: dies könnte ja u.U. existenzgefährdend sein.

Zunächst aber müssen diese jungen Forscher mit zusätzlicher Zeit des Professors in das Projekt eingearbeitet werden und selbiges vorantreiben, um auch die geforderten Ergebnisse zum richtigen Zeitpunkt zu produzieren. Es stellt sich in zunehmendem Maße die Frage, ob wirklich geniale junge Menschen sich absichtlich in derart schlechte Arbeitsbedingungen pressen lassen wollen oder lieber den Weg in die besser zahlende Industrie oder aber in das Ausland (nicht notwendigerweise die USA) vorziehen. Schlimmer wird es noch, wenn während der Projektlaufzeit neue Ideen den alten Ansatz überflüssig machen oder signifikante Veränderungen im eben nicht mehrere Jahre im voraus planbaren Wissenschaftsalltag eintreten. Hierfür lassen die wenigsten Projekte Platz. Wer darüber hinaus meint, daß erfolgreiche Projektprofessoren finanziell signifikant bessergestellt würden, irrt meistens: In typischen Fällen hat der Projektleiter kaum die Möglichkeit, sich seinen Mehraufwand (in Anlehnung an Beratergehälter in der Industrie) angemessen honorieren zu lassen.

Summa Summarum:

Hätte der Wissenschaftler keinen Antrag geschrieben und in der dafür notwendigen Zeit lieber an seiner Idee gearbeitet, hätte die Universität zwar weniger Geld, dafür aber eine saubere, mit Talent und Begeisterung ausgearbeitete Lösung eines Problems gehabt. Diese hätte definitiv für mehr Publikationen und eine höhere wissenschaftliche Reputation gesorgt, als viele, unter Stress durchgeprügelte Projekte, für die die Wissenschaft – anstatt sich zu profilieren und Schulen zu pflegen – sich bei den Geldgebern verbiegen und prostituieren muß. Nichtantragschreiben ist also wahrscheinlich der wesentlich schnellere, effektivere und bessere Weg, Wissenschaft zu betreiben.

Rechnen wir einmal nach: Zeit für die Antragstellung vier Monate multipliziert mit drei, da die Genehmigungsrate eben maximal bei einem Drittel liegt, ergibt ein Jahr Arbeit, ohne zu berücksichtigen, daß man überhaupt erst einmal mit Zeit und Muße drei Ideen erzeugt haben muß. Veranschlagen wir für das Networking einmal „nur“ drei Monate Aufwand, für Einarbeitung und Anleitung junger Wissenschaftler, Administrations- und Managementarbeit, Korrektur von Artikeln usw. noch einmal in

Page 17: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

20 / 34

der Summe drei Monate, so kosten zwei Jahre drittmittelfinanzierter Projektarbeit den (Senior-) Wissenschaftler 18 Monate Arbeitszeit. Zum Ausgleich wird ihm mit einer Verspätung von ca. einem Jahr ein junger Wissenschaftler für zwei Jahre als Mitarbeiter zugewiesen, der auf Grund seiner geringeren Effizienz und Erfahrung in diesen 24 Monaten genau das leistet, was ein erfahrener Wissenschaftler in der Hälfte der Zeit geschafft hätte – so man denn überhaupt einen wirklich talentierten, jungen Mitarbeiter findet. Ist das nicht der Fall oder geht man etwa in der irrigen Annahme vor, zwei nur mit halben Stellen beschäftigte Wissenschaftler würden mehr Leistung erbringen (weil man jeweils zwar nur die Hälfte bezahlt, aber Vollzeitarbeit erwartet oder versucht, durch Druck zu erhalten), macht man meistens die Erfahrung, daß dem nicht so ist. Der Leistungswille und die Motivation der Mitarbeiter sind meistens durch die 50%ige Bezahlung reduziert und auch der administrative Aufwand für zwei Angestellte ist selbstredend höher. In Verbundprojekten mit zwei und mehr Partnern kommen weitere effizienzmindernde Faktoren hinzu: hier sind noch Arbeit und Kosten für Koordination, Projekt- und Statustreffen, Reisezeiten u.a. als negativ mit in die Kalkulation einzubeziehen. Die zwei im Antragsprozeß aus welchen Gründen auch immer nicht erfolgreichen Ideen sind natürlich bei diesem Vorgehen schlicht und ergreifend verlorenes Gut. Damit bleibt rätselhaft, wodurch mittels Forschungsanträgen und wettbewerbsorientierter Vergabe von Drittmitteln ein Vorteil für die Forschung erreicht werden kann.

Eine alte Anekdote zu diesem Thema faßt den Sinn wissenschaftlicher Anträge so zusammen: Es war einmal ein alter, steinreicher und konservativer Mann, der kurz vor seinem Tode sein Testament derart gestalten wollte, daß all sein Geld bestmöglich entgegen dem wissenschaftlich-technischen Fortschritt wirke. Und er befragte alle seine Ratgeber, wie er dies denn am besten arrangieren könne. Einer seiner erfahrensten alten Weggefährten – wohl ein Psychologe – riet ihm, all sein Geld einer Stiftung zu vermachen. Diese solle Gremien einberufen, die wichtige Forschungsthemen festlegen und Sachbearbeiter anstellen solle, die sich um Richtlinien für eine formale, gerechte Bewerbung zu kümmern hätten. Um die Bearbeitung der so absolut wichtigen Rahmenthemen könne sich jedermann mit innovativen Ideen bewerben und nach einem intensiven Begutachtungsverfahren auch viel Geld für die Erforschung dieser Sache erhalten, wenn er sich nur der Pflicht des regelmäßigen Berichtens und des festgelegten Mittelnachweises unterwerfe.

Man kann sicher über die Parallelen dieser Anekdote mit der heutigen Praxis streiten. Will man weiterhin mit der Finanzierung der Wissenschaft durch Forschungsanträge leben, könnte man zumindest versuchen, die oben kritisierte, geringe Effizienz zu verbessern. Dies könnte etwa durch folgende Maßnahmen geschehen:

• Beschränkung auf eine Stiftung/Institution für alle Anträge • Verbot jedweder Einflußnahme aus Politik und Wirtschaft und ausschließliche Konzentration

auf fachliche Korrektheit und Innovation • Vereinheitlichung der Anträge, Termine und Richtlinien • Einbeziehung ausländischer Gutachter und Verbot der Beteiligung an Ausschreibungen für die

Gutachter • Aufgabe der Anonymität und Sicherstellung vollständiger Transparenz des Begutachtungs-

prozesses verbunden mit Anhörungen der Bewerber

Da dies aber wahrscheinlich vergebliche Forderungen sind, gilt ergo immer noch:

„Der Starke ist am mächtigsten allein“ (Friedrich Schiller).

REFERENZEN

[1] F. Apel: „Projekt-Professor“. Forschung und Lehre, Heft 11/14, S. 873, 2014 [2] W.A. Halang: „Evaluationen als Herrschaftsinstrument“. Präsentiert auf dem Österreichischen Soziologenkongreß,

Innsbruck, Okt. 2015 [3] B. Kramer: „Gekaufte Uni – Forschung – ich habe mich sehr unfrei gefühlt“.

Ein Interview mit Christian Kreiß, Spiegel Online vom 16.06.2015, http://www.spiegel.de/unispiegel/wunderbar/christian-kreiss-ueber-drittmittel-und-gekaufte-forschung-a-1036531.html, heruntergeladen am 20.06.2015

[4] N.N.: Social Media Marketing – Wieviel Zeit benötigen Facebook, Twitter & Co.? T3N Digital Pioneers, http://t3n.de/news/social-media-marketing-wieviel-zeit-benotigen-facebook-292363/

[5] N.N.: „Drittmittel und Erpressung“. Forschung und Lehre, Heft 7/13, S. 548–549, 2013

Page 18: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

21 / 34

Quantitative Evaluation als Herrschaftsinstrument

Von: Wolfgang A. Halang

Lehrstuhl für Informationstechnik, FernUniversität in Hagen, 58084 Hagen [email protected]

Der erste Satz von Artikel 5, Absatz 3 des Grundgesetzes der Bundesrepublik Deutschland lautet „Kunst und Wissenschaft, Forschung und Lehre sind frei.“ und Absatz 1 fügt ergänzend „Eine Zensur findet nicht statt.“ hinzu. Im vorliegenden Beitrag wird gezeigt werden, wie diese sich so oder ähnlich in allen Verfassungen demokratischer Rechtsstaaten findenden Grundrechte im internationalen Wissenschaftsbetrieb unter dem Vorwand der Qualitätssicherung ausgehebelt werden, wie quantitative Evaluation als Herrschaftsinstrument eingesetzt wird sowie wer Herrschende und Beherrschte sind. Individuelle Leistungsbewertung

Ausgehend von den U.S.A. werden heutzutage Wissenschaftler, bspw. in Berufungs- und Beförderungsverfahren, fast überall nur noch auf der Grundlage der Zahl ihrer Publikationen beurteilt. Eine inhaltliche Würdigung ihrer Forschungsleistung ist zu Lebzeiten schwierig, höchst subjektiv und findet deshalb in der Regel nicht statt. Mittlerweile soll es auch im deutschsprachigen Raum Fakultäten geben, die, aus welchen Gründen auch immer, Habilitationsleistungen nicht mehr selber bewerten, sondern sich auf die Urteile anonymer Gutachter und das Ranking-Wesen stützen. Sie schließen mit Habilitanden Vereinbarungen ab, in denen Ziele für einzuwerbende Drittmittel und an Rankings orientierte Veröffentlichungen festgeschrieben werden, denn leicht lassen sich Drittmittelsummen addieren und Veröffentlichungen anhand journalspezifischer Punktzahlen quantitativ erfassen. „Die wissenschaftliche Leistung eines Habilitanden wird nicht mehr über den konkreten Inhalt, sondern ausschließlich über die Verpackung – nämlich darüber, in welcher Zeitschrift der von ihm verfaßte Aufsatz publiziert wurde – gemessen [12].“ Das Erreichen einer vorgegebenen Punktzahl wird schließlich mit automatischer Habilitation belohnt. Obwohl die konsistente Erstellung umfassender Werke eine ungleich größere Leistung darstellt als die Durchführung einer Handvoll kleinerer Einzelforschungen, werden Monographien oft nicht mehr als Habilitationsleistung anerkannt – vielleicht weil die Evaluatoren gar nicht fähig sind, solche selbst hervorzubringen. „Erforscht wird nur, was sich gut und hochwertig veröffentlichen läßt [12].“ Mithin erscheint es nicht empfehlenswert, sich mit Wissenschaftsgebieten zu befassen, für die es keine Zeitschriften mit hohem Ranking gibt. „Die Höhe der Drittmittel ist in der akademischen Welt zu einer Metrik für sogenannte Qualität der Forschung eines Professors und damit zur Basis seiner Reputation und Evaluation gemacht worden, obwohl alle Beteiligten erkannt haben, daß sich die Politik mit diesem Trick aus der Verantwortung für eine solide Grundfinanzierung von Forschung und Lehre stehlen will [5].“ Aber warum hat die Politik die Grundfinanzierung von Forschung und Lehre reduziert? Ist es wirklich Geldmangel, oder sollen durch die Hintertür die Forschungsfreiheit eingeschränkt und das Denken der Wissenschaftler und Studierenden gleichgeschaltet werden? Publikationsbasierte Indikatoren werden auch gerne bei Verteilungsentscheidungen zur quantitativen Bewertung von Forschungsleistungen und als Leistungsanreize eingesetzt. Die derzeitige Praxis der Nutzung bibliometrischer Daten im Rahmen von Forschungsevaluationen, Begutachtungen von Drittmittelanträgen und in Berufungsverfahren führt zu Fehlanreizen mit dem Effekt, daß Forscher ihr Publikationsverhalten der Art der Messung [1] anpassen. Begründet sich die Reputation von Fachzeitschriften auf quantitative Indizes wie den Impact-Faktor, so steigert dies die zentrale Stellung bestimmter Journale bis hin zur wettbewerbsbehindernden Dominanz [1]. Bloße Publikationszahlen belohnende Leistungsanreize ziehen inhaltsleeres Wachstum nach sich, das die Publikationsmenge

Page 19: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

22 / 34

schneller ansteigen läßt als den Umfang erwähnenswerter Forschungsergebnisse. Es werden mithin so wenige Ergebnisse wie möglich pro Publikation berichtet und in der völlig unüberschaubar gewordenen Fülle internationaler Fachzeitschriften, weltweit veranstalteter Konferenzen und herausgegebener Sammelwerke mehrfach veröffentlicht [1]. In Kombination führen die Effekte Dominanz von Journalen hoher Reputation und Mengenwachstum dazu, daß immer weniger Forschungsergebnisse wahrgenommen werden, und zwar höchstens die nach Durchlaufen des im folgenden beschriebenen Filterprozesses in den Zeitschriften mit hohem Impact-Faktor publizierten. Bibliometrie

Von zu beurteilenden Wissenschaftlern wird nicht allein eine große Zahl an Publikationen gefordert, sondern auch, daß diese von Herausgeberbeiräten oder Programmkomitees begutachtet wurden. Das war nicht immer so. Vor rund 100 Jahren war Begutachtung noch nicht üblich. Damals überlegten sich Wissenschaftler sehr genau, was sie veröffentlichen konnten, ohne sich der Gefahr auszusetzen, sich lächerlich zu machen. Und so wurden unbegutachtete Arbeiten veröffentlicht, bspw. von Einstein und sogar noch in den 1980er Jahren von Bednorz und Müller, die später aufgrund inhaltlicher Würdigung mit Nobelpreisen ausgezeichnet wurden. Hinterfragt man das Begutachtungswesen, so wird behauptet, dieses sei ein Mittel zur Qualitätssicherung. Es sei doch zu begrüßen, wenn angesehene Kollegen – die bezeichnenderweise immer anonym bleiben – Arbeiten kritisch durchsähen und auf Fehler aufmerksam machten. Letzteres kommt natürlich vor und die meisten Einreichungen, die es ohne den „Publish or perish“-Wahn überhaupt nicht gäbe, haben es sicher bitter nötig. Allerdings könnten von den Autoren vor der Veröffentlichung auch selbst kritische Durchsichten ihrer Arbeiten veranlaßt werden. Wie sehen nun Begutachtungsverfahren in der Praxis aus? In der Regel sendet ein Herausgeber ein eingegangenes Manuskript an ihm bekannte Fachvertreter oder aushilfsweise an Personen, die im Literaturverzeichnis des Manuskripts zitiert wurden. In der Hoffnung, wenigstens drei Rückläufe zu erhalten, schreibt er fünf Kollegen an. Diese sind meistens mit Arbeit überlastet und geben daher das Manuskript gerne an ihre Doktoranden oder sogar Magistranden weiter, denen in der Regel noch eine hinreichende Kenntnis des Gebietes der zu begutachtenden Arbeit und insbesondere der älteren Literatur fehlt. Das eigentlich der Qualitätssicherung dienende Instrument der Begutachtung ist selbst nicht qualitätsgesichert, was Autoren leicht an in Beurteilungen zum Ausdruck kommendem Nichtverständnis und Unwissen oder auch ganz schlicht an in Gutachterkommentaren enthaltenen sachlichen und orthographischen Fehlern erkennen können. Von Gutachtern wird darüber hinaus willentlich oder durch partielle Unkenntnis des jeweiligen gegenständlichen Wissenschaftsgebietes auch direkt Zensur ausgeübt, indem Einreichungen schlecht beurteilt oder abgelehnt werden, deren Inhalte vom Mainstream abweichen, geltenden Lehrmeinungen gewisser Schulen widersprechen oder Ideen enthalten, die bisherige Forschungsgebiete obsolet und mithin große Forschergemeinschaften praktisch arbeitslos machen könnten. Beispiele dafür aus dem Erfahrungsbereich des Verfassers sind nicht auf zahlentheoretischen Methoden beruhende Kryptographie, insbesondere die nachgewiesenermaßen nicht brechbare Einmalverschlüsselung, oder Verhinderung des Eindringens von Schadprogrammen in Datenverarbeitungsanlagen mittels gerätetechnischer Maßnahmen. Das bei Informatikern sehr beliebte Gebiet der Uhrensynchronisation in verteilten Rechnersystemen wurde nicht durch Veröffentlichung innovativer Lösungsansätze, sondern durch die technische Entwicklung hinweggefegt, und zwar die weltweite Verfügbarkeit höchst genauer Zeitinformation über Satellitennavigationssysteme. Als der Verfasser im Jahre 1989 die zunächst bei Kluwer Academic Publishers und jetzt im Springer-Verlag erscheinende Zeitschrift „Real-Time Systems – The International Journal of Time-Critical Computing Systems“ (ISSN 0922-6443) gründete, stellte er einen Herausgeberbeirat zusammen und übernahm wie selbstverständlich das oben umrissene, weltweit übliche Begutachtungsverfahren. Während seiner siebzehnjährigen Tätigkeit als für Europa zuständiger Herausgeber wurde ihm erst allmählich klar, daß er eigentlich verfassungswidrige Zensur ausübte sowie zur Unterdrückung von

Page 20: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

23 / 34

Querdenkern und zur Gleichschaltung des wissenschaftlichen Denkens auf dem Gebiet der Echtzeitsysteme beitrug. Schafft es ein Manuskript durch den Begutachtung genannten qualitativen Filter und wird in einer Zeitschrift veröffentlicht, so schließt sich unmittelbar eine quantitative Bewertung in Form der numerischen Gewichtung der Publikation mit dem aus Zitationshäufigkeiten ermittelten sogenannten Impact-Faktor des Journals an. Die Festsetzung dieser Faktoren und auch Indizierungen von Veröffentlichungen werden von einem Oligopol [1] gewinnorientierter Organisationen und Verlage durchgeführt, die den aus dem Finanzwesen bekannten Rating-Agenturen ähneln. Derartige Einrichtungen sind offensichtlich ein Ausfluß angelsächsischen, insbesondere amerikanischen Denkens, denn nur dort ist man auf die Idee gekommen, sie zu gründen und zu betreiben, worauf sich ihre Monopolstellung gründet. Weil sie in Ermangelung von Bildung und Sprachkenntnissen fast nur englischsprachige Literatur berücksichtigen, bilden sie Forschungsfelder, in denen nationalsprachliche Veröffentlichungen von Bedeutung sind, nur unzureichend ab [1] und zwingen alle Wissenschaftler weltweit, ihre eigenen Sprachen aufzugeben, wollen diese denn wahrgenommen werden und sich der quantitativen Evaluation ihrer Leistungen stellen. So ist zu erklären, daß es aktuell praktisch keine deutschsprachigen wissenschaftlichen Zeitschriften mehr gibt und daß „in vielen Teilen der Welt Forschungsexzellenz mit englischsprachigen Publikationen gleichgesetzt wird [7].“ Universitäts-Rankings Eine angelsächsische Hegemonie zeigt sich auch bei den übernationalen Rankings von Universitäten. Weil in entsprechenden Listen nichtenglischsprachige Universitäten nie auf den vorderen Plätzen zu finden sind, meinen deren Hochschulleitungen vermehrt, sich einem empfundenen Konformitätsdruck beugen, Englisch als Lehrsprache einführen und sich an amerikanischen Eliteuniversitäten ausrichten zu müssen. Die Lehre dort findet dann auf dem niedrigen Niveau des Basic English [9] – oder besser des „Bad Simple English“ – mit seinem extrem reduzierten Vokabular von 850 Wörtern statt, womit das akademische Niveau erheblich gesenkt und die Vision der Sprache Neusprech (Newspeak) aus dem Roman „1984“ [10] realisiert wird. Dies hat nichts mit Elite zu tun und die Entscheidungsträger zeigen, daß sie einer Verwechselung von Leistungs- mit Finanzelite erlegen sind. Wer Studiengebühren im sechsstelligen Bereich bezahlt, tut dies in der Erwartung, den Bachelor-Abschluß damit gleich mit gekauft zu haben, den er dann selbstverständlich nebst guter Noten auch erhält [8]. Die raison d'être von Eliteuniversitäten besteht nicht in herausragender Forschung und Lehre, sondern in der Bereitstellung eines Umfeldes, das dem Nachwuchs der finanzstarken Oberschicht die Möglichkeit gibt, sich im Laufe vierjährigen Campuslebens gegenseitig kennenzulernen und für die Zukunft zu vernetzen – und zwar weniger im Seminar als bei Sport und wilden Parties. Wie man sich durch Besuch von solchen Universitäten mittlerweile ins Netz gestellter Vorlesungen überzeugen kann, wird dort nichts gelehrt, was nicht überall nachzulesen wäre. Die dort tätigen berühmten Forscher hat man erst „eingekauft“, nachdem sie ihre Leistungen schon woanders erbracht hatten. Bezeichnenderweise gelangen amerikanische Eliteuniversitäten nicht durch Anwendung wie auch immer gearteter quantitativer Evaluationen an die Spitze internationaler Universitäts-Rankings, sondern durch Auswertung subjektiver Einschätzungen von Befragten, die von den Veranstaltern der Rankings irgendwie ausgewählt wurden – im Prinzip also durch Hörensagen. So liegen dem aktuellen „World Reputation Ranking“ Meinungsäußerungen von Personen aus 140 Ländern zugrunde [13]. Ihre eigenen Studiengänge setzen Eliteuniversitäten Evaluationen, wie bspw. Akkreditierungen, erst gar nicht aus. Auch ihre Forschungsproduktivität, die bei Anderen mittels impactfaktorgewichteten Veröffentlichungsanzahlen genauestens gemessen wird, läßt sehr zu wünschen übrig. So ist dem Verfasser in den 42 Jahren, während derer er sich schon mit dem Gebiet der Echtzeitsysteme beschäftigt, oder während seiner siebzehnjährigen Herausgeberschaft der weltweit einzigen Zeitschrift auf diesem Gebiet kein einziger Beitrag der im World University Reputation Ranking der Times [13] weltweit angeblich zehn besten Universitäten, nämlich Caltech, Harvard, Oxford, Stanford, Cambridge, MIT, Princeton, Berkeley, Imperial College und Yale, untergekommen. Zwar haben einige der Genannten gar keine Fachbereiche für Naturwissenschaften und Technik, jedoch genießen andererseits gerade das California und das Massachusetts Institute of Technology sowie die Stanford University für diese Gebiete höchstes Ansehen. Dies und die Tatsache, daß das Fach am MIT noch nicht einmal gelehrt wird, verwundert umso mehr, als es sich dabei um eine für die Automatisierung technischer Systeme

Page 21: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

24 / 34

grundlegende Querschnittstechnologie handelt, die insbesondere für die in den U.S.A. mit großen Summen geförderte Rüstungsforschung von Bedeutung ist. Das Niveau von Eliteuniversitäten kann gar nicht hoch sein, sondern muß sogar eher niedriger als das der anderen Universitäten sein. Dies folgt schon aus der einfachen Plausibilitätsüberlegung heraus, daß ihre Zielgruppe eben nicht die intelligentesten, kreativsten und leistungsstärksten Studierenden sind, sondern der Nachwuchs der Finanzelite wie in den U.S.A. oder der Machtelite wie in China, dem die genannten Eigenschaften nicht notwendigerweise mit in die Wiege gelegt wurden. Das erklärt auch, warum die Leistungsanforderungen Pekinger Schulen geringer sind als im übrigen Reich der Mitte. Um Funktionärskindern darüber hinaus noch die Möglichkeit zu eröffnen, prestigeträchtige Universitätsabschlüsse zu erlangen, wurden auch einige Pekinger Universitäten im Ranking chinesischer Hochschulen auf die vordersten Plätze gesetzt. Als besonders prestigeträchtig gelten in China, aber auch im übrigen Asien, Abschlüsse ausländischer – insbesondere englischsprachiger – Eliteuniversitäten. Wer sich die hohen Studiengebühren leisten kann, geht daher in die U.S.A. Nicht ganz so teuer ist es in Australien, wo das Hochschulwesen nach dem Bergbau zur zweitwichtigsten Exportindustrie aufgestiegen ist. Die asiatischen Studierenden unterziehen sich dort dem „Test Of English as a Foreign Language“ (TOEFL), sitzen vier Jahre lang in Vorlesungen und Seminaren, legen mündliche und schriftliche Prüfungen ab und schreiben vielleicht noch eine Abschlußarbeit. Nach der Graduierung dürfen sie nach dem australischen Einwanderungsgesetz dann eine Zeit dort bleiben, um Berufserfahrung zu sammeln. Dazu ist aber eine weitere Sprachprüfung erforderlich, bei der viele durchfallen [6], was die Frage aufdrängt, wie sie überhaupt ihre akademischen Prüfungen bestehen konnten. In einem jüngst erschienenen Artikel [2] sind Anhaltspunkte dafür zu finden, die das Phänomen Eliteuniversitäten einer Erklärung näher bringt. In der Studie wird gezeigt, daß die Berufungspraxis von Professoren in den U.S.A. durch eine ausgeprägt hierarchische Struktur gekennzeichnet ist, die stark mit dem Prestige jener Universitäten korreliert, an denen die erfolgreichen Kandidaten promoviert wurden. Diese Prestige-Hierarchie korreliert ihrerseits mit den bekannten Universitäts-Rankings, bspw. denen der Zeitschrift U.S. News & World Report oder des National Research Councils, erklärt jedoch die Ergebnisse von Berufungsverfahren erheblich genauer als diese Rankings. Die beobachteten Hierarchien sind so steil, daß sie kaum durch entsprechende Leistungsunterschiede erklärt werden können. Wie diese Hierarchien entstanden sind und welche Mechanismen sie aufrecht erhalten, ist bisher jedoch unklar. Diese hierarchische Ordnung führt dazu, daß akademische Institutionen mit geringerem Prestige versuchen, die Verhaltensweisen der Universitäten mit hohem Prestige in der Hoffnung nachzuahmen, so selbst höheres Prestige zu erlangen. Sehr ausgeprägt ist das Prestige-Denken auch in China, wo immer nach der Berühmtheit von Personen und Sachen, und mithin auch der von Universitäten, gefragt wird. Die so umrissene Ausrichtung auf und Anpassung an prestigeträchtige Vorbilder ist ein effektiver Mechanismus zur Gleichschaltung und zur Erzeugung von „Längsdenkern“. Vergleichbare Verhaltensmuster wurden auch in Wirtschaftsunternehmen beobachtet [3]. Ganz im Gegensatz zu ihren öffentlichen Verlautbarungen bevorzugen die meisten Führungskräfte implizit und unbewußt angepaßte Beschäftigte anstelle von Querdenkern, was dazu führt, daß bei Einstellungen immer ähnliche Kandidatinnen und Kandidaten ausgewählt werden. Diese Wiederkehr des immer Gleichen hemmt Innovationen und ist für die Wissenschaft in besonderer Weise schädlich, da sie für ihren Fortschritt auf neue und überraschende Ideen angewiesen ist. Wie der Schuß des Rankings auch nach hinten losgehen kann, möge folgende Anekdote verdeutlichen. Seit 2003 veröffentlicht die Shanghai Jiao Tong University ihr Academic Ranking of World Universities (www.shanghairanking.com). Wer sich erdreistet, ohne Auftrag andere zu bewerten und ihnen Rangordnungen zuzuweisen, wird sich früher oder später fragen lassen müssen, wie es denn um die eigene Qualität bestellt ist. Und so kam heraus, daß es an der Shanghai Jiao Tong University Ordinarien gibt, deren Forschungsleistung gering ist und die noch nicht einmal einen Doktortitel besitzen. Deshalb wurden sie von ihrer Universitätsleitung unter stetig zunehmenden Druck gesetzt, sich nachzuqualifizieren. Aber wo? Welchen Platz im eigenen Ranking darf eine dazu geeignete Universität

Page 22: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

25 / 34

haben? Einer der Betroffenen entschied sich für Rang 0, d.h. er stellte sich außerhalb der Prestige-Hierarchie und reichte seine Dissertation bei der FernUniversität in Hagen ein, wo er dann unter Vorsitz des Verfassers promoviert wurde. Letzterer kann sich einfach nicht verkneifen, daß das Shanghai-Ranking die City University of Hong Kong auf Platz 24 weltweit im Bereich Ingenieurswissenschaften und Informatik sieht – der Leiter der dortigen Abteilung für Informatik ist schließlich einer seiner Doktorsöhne. Bologna-Prozeß

Im Zuge des sogenannten Bologna-Prozesses wurden in Europa zur Qualitätssicherung der Lehre ein Akkreditierungssystem eingeführt und in der Erklärung von Bologna gar nicht vorgesehene privatwirtschaftlich organisierte und gewinnorientierte Akkreditierungsagenturen neu aufgebaut. Diese belasten die Fakultätshaushalte mit hunderten Millionen Euro pro Jahr, deren Fehlen sich in Forschung und Lehre bitter bemerkbar macht. Da die Fakultäten von ihren Hochschulleitungen zur Akkreditierung ihrer Studiengänge gezwungen und die Gebühren der Akkreditierungsagenturen wenigstens in Deutschland nicht vom Staat bereitgestellt werden, müssen sie auf Kosten der Ausstattung und Ausgaben für Lehrzwecke eingespart werden. Kleinere Fächer können diese alle fünf Jahre wiederkehrenden Kosten nicht aufbringen und werden so zur Selbstaufgabe gezwungen. In Akkreditierungsverfahren muß mit großem Aufwand eine Fülle numerischer Daten aus Lehrevaluationen, über Studienerfolg, Verbleib der Absolventen im Beruf u.v.a.m. mühsam zusammengetragen werden. Als Mitglied von Akkreditierungskommissionen mußte der Verfasser dann jedoch miterleben, daß diesen Zahlen kaum Beachtung geschenkt wird – vielleicht weil jeder weiß, daß sie ohnehin nichts aussagen. Kein Mitglied einer solchen Kommission setzt sich in eine Vorlesung, um dort einen Eindruck von der Lehre zu gewinnen. Statt dessen werden oberflächliche Gespräche mit allen Gruppen Beteiligter geführt und Modulhandbücher durchgeblättert. Die wachsende Studierunfähigkeit der Studierenden, die sich bspw. noch in ihren Abschlußarbeiten durch Unmengen grammatikalischer Fehler manifestiert, und als Konsequenz daraus die fortlaufende Senkung des Anforderungsniveaus werden grundsätzlich nicht thematisiert. Hauptsache, Absolventenzahl und Abschlußquote stimmen: Ob Stalinismus oder Neoliberalismus, in ihrer Tonnenideologie unterscheiden sie sich nicht. Und schließlich werden auch Studiengänge durchgewinkt, die eine Fakultät in Ermangelung dafür erforderlicher Ressourcen eigentlich gar nicht anbieten könnte. Studiengangsakkreditierungen stellen somit ein Feigenblatt dar und dienen allein dem Zweck, auf der Grundlage mittels quantitativer Evaluationen vorgetäuschter Objektivität von Qualitätsaussagen davon abzulenken, daß durch Kürzung von Studiendauer, finanziellen Mitteln und Anzahl des Lehrpersonals die Qualität von Studium und Lehre durch den Bologna-Prozeß in Wirklichkeit deutlich verschlechtert wurde [11]. Mit Vehemenz wird im Rahmen des Bologna-Prozesses noch eine weitere Verschlechterung vorangetrieben, und zwar die Anglifizierung der Hochschulbildung, was nicht nur in den vergebenen Graden „Bachelor“ und „Master“, sondern auch darin zum Ausdruck kommt, daß die Inhalte der neuen Studiengänge zunehmend auf Englisch gelehrt werden. Dadurch werden nicht nur die linguistischen Menschenrechte nicht englischsprachiger Studierender verletzt und deren Studium deutlich erschwert, sondern auch genau das Gegenteil dessen getan, was Joseph Weizenbaum noch kurz vor seinem Tode empfahl: „Die höchste Priorität der Schule ist es, den Schülern ihre eigene Sprache beizubringen, so daß sie sich klar und deutlich artikulieren können: in ihrer stillen Gedankenwelt ebenso wie mündlich und schriftlich. Wenn sie das können, dann können sie auch kritisch denken und die Signale, mit denen sie ihre Welt überflutet, kritisch interpretieren. Wenn sie das nicht können, dann werden sie ihr ganzes Leben lang Opfer der Klischees und Schablonen sein, die die Massenmedien ausschütten.“ Man kann sich des Eindrucks nicht erwehren, dass nicht kritisch Denkende das Ziel des Bologna-Prozesses sind, sondern mittels amerikanisch-reduziertem Englisch auf globalisierungskonforme Mainstream-Sicht eingenordete und gleichgeschaltete Humanressourcen: „Die Menschen-Logistiker und Human Resource Administratoren wollen Menschen, die in Prozessen steuerbar sind und sich in Programme einpassen. Die Universitäten werden zur Zeit auch von diesen Postpferd-Mechanismen vergiftet und züchten genormte Bachelors mit Modulpunkten für Einheitswissen für Industriebetriebe [4].“ Dagegen war in der Erklärung von Bologna noch von der Achtung der Verschiedenheit der Sprachen

Page 23: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

26 / 34

die Rede, die nach Wilhelm von Humboldt „nicht eine Verschiedenheit an Schällen und Zeichen ist, sondern eine Verschiedenheit von Weltansichten.“ Cui bono?

Pointiert zusammengefaßt halten wir fest, daß quantitative Evaluationen und Erstellen von Rangordnungen verfassungswidrige Herrschafts- und Gleichschaltungsinstrumente sind. Diese wurden in den U.S.A. entwickelt und dienen dem Land, und insbesondere seinen sogenannten Eliteuniversitäten, zur Behauptung im internationalen Wettbewerb, und zwar nicht dadurch, daß sich die U.S.A. diesem Wettbewerb mit dem Risiko des Scheiterns stellten, sondern indem sie versuchen, weltweit das Niveau von Forschung und Lehre – durch Absenkung – auf das der eigenen Eliteuniversitäten zu bringen, das Aufkommen wirklich innovativer Ideen zu verhindern sowie die Überwachung des Forschungsgeschehens dadurch zu vereinfachen, daß alle Wissenschaftler zur Publikation ihrer Ergebnisse auf Englisch genötigt werden. Finanziell von quantitativen Evaluationen profitieren Studiengebühren erhebende und ihren Präsidenten Millionengehälter zahlende Privatuniversitäten, Firmen wie Thomson Reuters mit ihren Zitationsindizes und Akkreditierungsagenturen. Letztere haben es geschafft, sich Geschäftsfelder für Dienstleistungen zu erschließen, die eigentlich niemand braucht. Den Interessengruppen, die unter dem Vorwand der Vereinheitlichung des Hochschulraumes in Europa das Bologna-System durchgesetzt haben, liegt daran, durch Bereitstellung objektiv erscheinender Zahlen den eingetretenen Qualitätsverlust zu verschleiern. Gegenmaßnahmen

Der Aufruf zu Beitragseinreichungen für diese Tagung fragt auch nach Strategien, sich gegen die Praxis quantitativer Evaluation zu wehren. Bevor dazu einige Anregungen gegeben werden sollen, sei ein Beispiel dafür genannt, wie man systemimmanent mit quantitativer Evalution zur Sicherung des eigenen Überlebens umgehen kann. In Großbritannien wurde in den letzten Jahrzehnten mit den so genannten Research Assessment Exercises quantitative Evaluation universitärer Fachbereiche bis hin zum Exzeß betrieben. Dabei ging es in letzter Konsequenz um die Existenz der Fachbereiche und die Arbeitsverhältnisse ihrer Angehörigen. Was ist nun zu tun, wenn im kommenden Jahr eine solche Beurteilung ins Haus steht und die eigenen Zahlen, in erster Linie an Publikationen in hoch angesehenen Zeitschriften nicht stimmen? Weil man so schnell keine Forschungsergebnisse gewinnen und diese dann auch noch durch den langwierigen Begutachtungsprozeß schleusen kann, bleibt nichts anderes übrig, als die Publikationslisten und notgedrungen deren Urheber einfach „einzukaufen“. Ein vom Verfasser betreuter chinesischer Alexander von Humboldt-Stipendiat wurde so auf eine unbefristete Dozentenstelle in Südengland berufen, die wir ihm in Deutschland nicht anbieten konnten. Um nun auf Gegenmaßnahmen zurückzukommen, so erscheinen diese im Hinblick auf Studiengangs-akkreditierungen kaum noch erforderlich zu sein, denn dieses Instrument ist bereits in Auflösung begriffen. Gründe dafür sind, daß viele Universitäten wegen der hohen Kosten zu Systemakkreditierungen übergehen und daß ganz einfach das Interesse daran schwindet. Weiterhin wird es immer schwieriger, die Akkreditierungskommissionen zu besetzen, weil die gebotenen Aufwandsentschädigung viel zu niedrig sind, bspw. der Deutsche Hochschulverband seine Mitglieder zur Nichtteilnahme an solchen Aktivitäten aufgerufen hat sowie mehr und mehr Hochschullehrer Akkreditierungen als verfassungswidrigen Eingriff in die Lehrfreiheit ansehen. Unterstützt in dieser Auffassung werden sie durch ein Urteil des Verwaltungsgerichtes Arnsberg vom 16. April 2010, das die in Nordrhein-Westfalen bestehende gesetzliche Pflicht zur Akkreditierung von Studiengängen für verfassungswidrig erklärt hat. Sich gegen Bibliometrie und Hochschul-Rankings zu wehren, ist im Grunde genommen ganz einfach: Man sollte daran nicht mitwirken und die vorhandenen Indizes, Evaluationen etc. schlicht ignorieren. Der Verfasser hat damit bereits begonnen, was in der Position eines kurz vor der Pensionierung stehenden beamteten Lehrstuhlinhabers zugegebenermaßen nicht sonderlich schwer fällt und keinen Mut erfordert. Er nutzt eine Veröffentlichungsform, die interessanterweise hohes Ansehen genießt, obwohl Begutachtungen nicht stattfinden: Er verfaßt Bücher. Es ist sehr überraschend und bemerkenswert, daß Universitäten im Mutterland des Rankings und Ratings ihre Dozenten dazu

Page 24: Conference Autonomous Systems AutSys · PDF fileA Recurrent Neural- network-based Ultra-Fast, Robust and Scalable ... Parallelism and VLSI Group, ... router architecture which can

27 / 34

auffordern, ihre Publikationen in folgender Reihenfolge absteigender Bedeutung zu listen: Bücher, Buchkapitel, Zeitschriftenartikel, Konferenzbeiträge, Berichte, Briefe an Herausgeber und kurze Mitteilungen. Weiterhin nutzt er die leider nur im Bereich der Ingenieurwissenschaften existierende Möglichkeit, Veröffentlichungen in objektiver Weise inhaltlich begutachten zu lassen, ohne daß quantitative Evaluationen stattfinden: Er meldet Patente an. Für die Dokumentation technischer Lehre in Form von Patenten spricht, daß Patentprüfer keine Eigeninteressen verfolgen, ihre Identität bekanntgeben und es keine Beschränkungen wie eine maximale Seitenzahl gibt, die ein Zeitschriftenjahrgang umfassen darf. Erteilung und damit Veröffentlichung eines Patents hängen einzig und allein davon ab, ob die beschriebene Vorrichtung oder das vorgestellte Verfahren neu ist. Im Gegensatz zur vorherrschenden Meinung ist zur Einreichung von Patentschriften und zur Kommunikation mit dem Patentamt auch nicht die Einschaltung von Patentanwälten erforderlich. Ist man nur an der amtlichen Bestätigung der Neuheit einer Idee interessiert, so kann man sein Patent nach der Erteilung verfallen lassen. Die bis dahin angefallenen Kosten sind entgegen der vorherrschenden Meinung ebenfalls nicht hoch, sondern bewegen sich in der Größenordnung der Gebühr zur Teilnahme an einer großen Fachkonferenz. Schließlich ist noch anzumerken, daß Patentschriften viel besser archiviert werden als Journal- oder Konferenzbeiträge und daß sie in der Muttersprache abgefaßt werden können. Schließlich erfüllt der Fachbereich des Verfassers streng den Buchstaben des Landesgesetzes, das quantitative Evaluation der Lehre vorschreibt. Dazu wurden eine Evaluationsordnung erstellt und in Kraft gesetzt sowie eine Evaluationskommission gewählt. Diese hat sich konstituiert, ihren Vorsitzenden gewählt und keine weitere Sitzung einberufen: Der brave Soldat Schwejk weist uns den Weg zu effektivem Widerstand. Literatur

[1] M. Ash u.v.a.: Empfehlungen zur Zukunft des wissenschaftlichen Publikationssystems. Berlin: Berlin-Brandenburgische Akademie der Wissenschaften 2015.

[2] A. Clauset, S. Arbesman und D.B. Larremore: Systematic inequality and hierarchy in faculty hiring networks. Sci. Adv. 1, e1400005, 2015.

[3] A. Derler: The ideal employee – The influence of work context, personality and organizational culture on leaders' prototypical implicit follower theories. Dissertation, FernUniversität in Hagen 2015.

[4] G. Dueck: Der Turing-Mensch und Phasic Instinct. Informatik Spektrum, 31, 2, 173–178, 2008. [5] K. Geihs: „Leider müssen wir Ihnen mitteilen ...“. Forschung & Lehre, 6, 468–470, 2015. [6] H.A. Glaser: Das Milliarden-Dollar Ding – Vom Nutzen australischer Universitäten. Forschung & Lehre, 17,

5, 326–328, 2010. [7] D. Hicks und P. Wouters: The Leiden Manifesto for research metrics. Nature, 520, 429–431, April 2015. [8] J.H. Summers: Alle Privilegierten sollten Preise bekommen – Harvard aus der Sicht eines Lektors.

Forschung & Lehre, 15, 10, 668–671, 2008. [9] C.K. Ogden: Basic English: A General Introduction with Rules and Grammar. London: Paul Treber 1930. [10] G. Orwell: Nineteen Eighty-Four. Penguin: London 2008. [11] Chr. Scholz und V. Stein (Hrsg.): Bologna-Schwarzbuch. Bonn: Deutscher Hochschulverband 2009. [12] G.H. Stumpf: „Abenteuer“ Habilitation. Forschung & Lehre, 6, 462–463, 2015. [13] Times Higher Education: World University Reputation Ranking 2015. Erschienen am 11. März 2015.

http://www.timeshighereducation.co.uk/world-university-rankings/2015/reputation-ranking