» Startseite
 » Inhalt
 » Wir über uns
 » Leistungen
 » Mitglieder
 » Mitgliedschaft
 » Arbeitsgruppen
 » Veranstaltungen
 » Informationen
 » Forum
 
 » Mitgliedsbereich
 


GI-Gachgruppe 2.1.10 - Software-Messung und -Bewertung

Software measurement Laboratory

Swiss Software & Services Metrics Association

United Kingdom Software Metrics Association

Niederländische Software Metrik Association

Finnish Software Measurement Association

das virtuelle Software Engineering Kompetenzzentrum

International Software Benchmarking Standards Group - Member-Zugangsdaten im DASMA-Mitgliedsbereich

International Function Point User Group - Member-Zugangsdaten im DASMA-Mitgliedsbereich

Online Portal für Projektmanagement - Member-Zugangsdaten im DASMA-Mitgliedsbereich
» Startseite / » Veranstaltungen / MetriKon-Tagungen (Rückschau) / MetriKon 2003 / Abstracts (11. November)

Abstracts (11. November)


Funktionspunkte


Günter Büren: Software - Grössenmasse im Kontext des CMMI

Im wesentlichen haben sich zwei Grössenmasse durchgesetzt:

  • Lines Of Code (LOC), die leider technologieabhängig sind, und
  • Funktionspunkte

Als Werkzeuge werden - neben der Erfahrung-Schätzmodelle oder Expertensysteme (wie KnowledgePlan von Capers Jones) eingesetzt, die mit Hilfe ähnlicher Altprojekte kalibriert werden. In CMMI werden solche Metriken bereits auf Stufe zwei für die Projektplanung und das Requirements Engineering gefordert, und auf Stufe drei für die gesamte Organisation.

CMMI geht also nicht ohne Grössenbestimmung. Jedoch sollte diese als "Abfallprodukt" aus der Anforderungsdefinition anfallen. Das Volere-Template der Atlantic Guild eignet sich dazu (auch der /ch/open-Prozess enthält ein entsprechendes Template). Für datenintensive Anwendungen eignet sich nach wie vor der Ansatz der IFPUG, auch Mark II für eingebettete Systeme. Bei technischen Anwendung empfiehlt sich jedoch COSMIC.

Der Aufwand ist jedoch in keinem Fall gleichzusetzen mit der Grösse. Der Aufwand ist immer eine Funktion sowohl der Grösse wie auch weiterer Kostenfaktoren. Dazu eignen sich die bekannten Schätzmodelle wie COCOMO II, aber auch die modernen Parametrics-System wie SEER, PRICE, CoBRA, KnowledgePlan.

In der Diskussion wird darauf hingewiesen, dass sich Funktionspunkte nicht zur Fortschrittsverfolgung eignen, denn die Produktivität kann ganz unterschiedlich sein.


Manfred Bundschuh: FP–Zählung von Data Warehouse Anwendungen

Data Warehouse-Systeme unterscheiden sich von Transaktionssystemen durch den Fokus auf Wiederauffindbarkeit statt rascher, sicherer operativer Durchführung von Transaktionen. Entsprechend gering ist der Anteil des funktionalen Umfangs gegenüber Code- und Referenztabellen. Auch sind die letzteren nicht normalisiert. Dies hat Auswirkungen auf die Zählung der Funktionspunkte.

Somit entstehen keine ILFs (ausser administrativen Daten wie Benutzerprofilen) aus den externen Urspungsdaten; ILFs sind hingegen das unternehmensweite Data Dictionary und Zugriffsregeln. Auch RETs kommen seltener vor, denn ein Data Warehouse ist nicht normalisiert.

Das Sternschema, das von Luca Santillo an der letztjährigen Metrikkonferenz (welcher?) vorgestellt wurde, bietet hier eine für den eigenen Zählstandard brauchbare Grundlage.

Möglicherweise würde die Verwendung des COSMIC-Standards die Zählung wesentlich vereinfachen.



Aufwand und Kosten

Achim Kindler: Aufwandschätzung in Projekten

Projektkatastrophen kommen sehr häufig vor. Und selbst wenn Projekte zu Ende geführt werden, sind hohe Wartungskosten und unerwartete Folgekosten die Regel, nicht die Ausnahme.

Es werden die üblichen Schätzmethoden vorgestellt und diskutiert, allerdings ohne die auf Parametrics (parametrisierte Kostenmodelle) basierenden Werkzeuge wie SEER von Galorath, PRICE, KnowledgePlan etc. Etwas eigenartig mutet dann die Schlussfolgerung an, dass es ausserhalb der Software wenig gäbe zur Unterstützung von Aufwandschätzungen. Es ist ja eher das Gegenteil der Fall: Cost Engineers in Grossprojekten verwenden schon lange Werkzeuge, die meist auf Parametrics beruhen.


Andreas Schmietendorf: Kostenverteilung im IT-Life Cycle

In einer empirischen Untersuchung der Universität St. Gallen wurde anhand von Beispielen der Deutschen Bahn und der Deutschen Telekom AG die Kostenverteilung im IT-Life Cycle untersucht. Dabei wurde ein Modell entwickelt, das auf einer Kombination der Aufwandschätzung für die Erstellung des Systems mit einer Systemkonzeptschätzung für den Wirkbetrieb beruht. Erstaunlich ist, dass aber gerade bei der letzteren eine methodische Vorgehensweise fehlt.

Aus der Kombination beider Methoden lassen sich interessante Aussagen herleiten zu den späteren Betriebskosten, was angesichts der Tatsache, dass diese grossmehrheitlich den Löwenanteil der Life Cycle Kosten beanspruchen, sehr nützlich wäre.



Innovative Ansätze

Reiner Dumke: eMeasurement – Stand und Perspektiven

Es werden die vorhandenen Ansätze zu Web-basierten Messwerkzeugen für die Softwareentwicklung beschrieben. In anderen Bereichen sind solche Messdienste bereits vorhanden. Das Software Engineering Laboratorium (SEL) der Universität Magdeburg stellt nun erstmals ein solches Werkzeug ("Dashboard") für das Messen der Funktionalen Grösse einer Software zur Verfügung.
(http://fsmportal.cs.uni-magdeburg.de/FSMPortal_Start_d.htm)


Jörg Robra: Ein GQM-Ansatz für Objektorientiertes Design

Anhand des bekannten Buches von E. Gamma über Entwurfsmuster wird ein Ansatz zur Erstellung von Entwurfsmetriken vorgestellt, deren Wert sich aus UML-Modellen rechnen lässt.



Hauptvortrag II

Niklas Fehrling: Software-Metrik im Umfeld der Automobilindustrie

Niklas Fehrling studierte Informatik an der Universität Halmstad, Schweden, mit Abschluss MSc in Computer Science. Bis 2001 war er bei Valeo in Schweden für die Entwicklung und Implementierung eines Qualitätsverbesserungs-systems verantwortlich.

Seit zwei Jahren arbeitet er bei der Robert Bosch GmbH in Stuttgart im Bereich Forschung und Vorausentwicklung. Hier ist er als interner Berater und Projektleiter für die Bosch-weite Einführung eines Metrikensystems verantwortlich. Ziel des Projekts ist die unternehmensweite Einführung etablierter Messverfahren, wie z. B. GQM, FPs, sowie des quantitativen Managements im Rahmen der CMM/CMMI-Aktivitäten (Capability Maturity Model Integration). Er ist dabei als Moderator, Forscher und Auditor tätig und vertritt das Unternehmen bei internationalen Konferenzen in diesem Bereich.

Software-Prozessverbesserung begann auf der Basis des CMM for Software Modells des SEI. Aktuell wird der Wechsel auf das CMMI vorbereitet. Dabei spielen Metriken als Basis für relevante Führungsinformationen eine zentrale Rolle.




(c) 2002-2016 DASMA e.V. Impressum
aktualisiert am: 21. Dez 2006