Discover
Software Testing - Qualität, Testautomatisierung & Agilität

Software Testing - Qualität, Testautomatisierung & Agilität
Author: Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung
Subscribed: 52Played: 2,120Subscribe
Share
© Richard Seidl
Description
Software-Qualität ist heute wichtiger denn je!
- Welche Tests sind sinnvoll und ausreichend?
- Wann lohnt sich der Einsatz von Testautomatisierung?
- Wie sehen gute Integrationstests aus?
- Alles zu testen ist nicht möglich: Wie viel Qualität ist genug?
Fragen, die in der Software-Entwicklung relevant sind – Entwicklungsprojekte werden immer komplexer. Vernetzung, künstliche Intelligenz und Machine Learning fordern die klassischen Software-Test-Methoden heraus. Anwender haben zudem immer größere Erwartungen an Usability, Performance und Funktionalität.
Experten aus unterschiedlichen Disziplinen der Software-Entwicklung teilen mit dir ihre Erfahrungen im Podcast "Software Testing" und geben dir aktuelle Tipps und Trends an die Hand, um die Qualität in deinen Software-Projekten signifikant zu steigern.
Software Testing ist der Podcast für alle Entwickler, Tester und Projektleiter, die umsetzbare Tipps und Hacks für mehr Software-Qualität in Ihren Projekten möchten.
Bist du bereit für den nächsten Qualitätsboost in deinem Software-Projekt? Dann höre jetzt die erste Folge!
Danke an die Community-Partner des Podcasts: Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | HANSER Verlag | Heise | iSQI GmbH | ISTQB | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON
- Welche Tests sind sinnvoll und ausreichend?
- Wann lohnt sich der Einsatz von Testautomatisierung?
- Wie sehen gute Integrationstests aus?
- Alles zu testen ist nicht möglich: Wie viel Qualität ist genug?
Fragen, die in der Software-Entwicklung relevant sind – Entwicklungsprojekte werden immer komplexer. Vernetzung, künstliche Intelligenz und Machine Learning fordern die klassischen Software-Test-Methoden heraus. Anwender haben zudem immer größere Erwartungen an Usability, Performance und Funktionalität.
Experten aus unterschiedlichen Disziplinen der Software-Entwicklung teilen mit dir ihre Erfahrungen im Podcast "Software Testing" und geben dir aktuelle Tipps und Trends an die Hand, um die Qualität in deinen Software-Projekten signifikant zu steigern.
Software Testing ist der Podcast für alle Entwickler, Tester und Projektleiter, die umsetzbare Tipps und Hacks für mehr Software-Qualität in Ihren Projekten möchten.
Bist du bereit für den nächsten Qualitätsboost in deinem Software-Projekt? Dann höre jetzt die erste Folge!
Danke an die Community-Partner des Podcasts: Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | HANSER Verlag | Heise | iSQI GmbH | ISTQB | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON
167 Episodes
Reverse
In dieser Episode spreche ich mit Kai Renz über Softwaretesten in der Hochschule. Er zeigt, warum Tests am Anfang schwer zu vermitteln sind und wie komplexe Praxisprojekte - ein Pizza-Shop im Kubernetes-Cluster - den Sinn greifbar machen. Wir reden über TDD, Pair- und Mob-Programming, BDD und warum konzeptionelles Verständnis wichtiger ist als Toolwissen. Architektur als Hebel für Testbarkeit und der Umgang mit Altcode, Metriken und Coverage-Fallen. KI im Studium? Erlaubt, aber verantwortungspflichtig - wer Code committet, muss ihn verstehen.
In dieser Folge spreche ich mit Andreas Günther und Breno Pinheiro über KI für bessere Anforderungen und eine solide Testbasis. Wir ordnen ein: Branchen ticken unterschiedlich, doch ohne klare Requirements wird Testen Lotterie. Text reicht nicht. Modelle, Use Cases, Aktivitätsdiagramme und gern auch PlantUML bringen Struktur. KI hilft, wenn wir Qualität erzwingen: Kontext klären, Scope schärfen, Rollen definieren, iterativ feedbacken, Begriffe glasklar machen und Vertraulichkeit beachten. Lange, wiederverwendbare Prompts statt Bauchgefühl.
In dieser Episode spreche ich mit Christine Pinto über Karrierewege im Testing und wie wir unseren Wert sichtbar machen. Wir räumen mit Stellenanzeigen-Mythen auf und schärfen das Selbstverständnis als Qualitätscoach statt Bug-Finder. Christine zeigt, wie du Interviews drehst: mit guten Fragen, Emotionen, konkreten Beispielen und Risikodenken, vom Technik- bis zum CEO-Gespräch. Wir reden über Netzwerke und Empfehlungen, über Gehaltsverhandlungen und Haltung. Und wir streifen Themen wie Accessibility und die Verantwortung des ganzen Teams.
.In dieser Episode spreche ich mit Felix Winter über den ASQF. Seit fast 30 Jahren vernetzt der Verein Menschen rund um Softwarequalität. Geboren in Erlangen, mit Wurzeln bis zur Entstehung von GTB und ISTQB. Was bringt die Mitgliedschaft? Ein starkes Netzwerk, Wissen und viele Events: Fachgruppen, Quality Nights, Testing Days, online. Du kannst mitreden, vortragen, schreiben. Ich kenne Felix seit Jahren, das Netzwerk trägt. Wir schauen auch nach vorn: KI im Testen, eine neue Fachgruppe, dazu Ausbildungen wie Secure Software Engineering,
In dieser Episode spreche ich mit Oliver Schuhmacher und Marvin Jakob über modellbasiertes Testen und wie es Teams zusammenbringt. Am Beispiel Lufthansa CityLine: neues Crew-Management, hoher Zeitdruck, klare Abnahme nötig. Modelle dienen als gemeinsame Sprache. Sie starten auf hoher Flughöhe, interviewen Fachbereich, Tester und Entwickler, verfeinern Schritt für Schritt und reviewen regelmäßig. Aus den Modellen generieren sie per Tool Testfälle, machen Abdeckung und Impact in Jira sichtbar und halten Tests bei Änderungen schneller aktuell. Wichtig: Gute Anforderungen und der Fokus auf Business Value.
In dieser Episode spreche ich mit Baris Güldali über Barrierefreiheit in PDF-Dokumenten. Nicht nur Websites, auch Formulare, Verträge und Rechnungen müssen zugänglich sein. Baris erklärt, wie PDFs sauber strukturiert werden: Überschriften, Tags, Alternativtexte, sinnvolle Tabellen, damit Screenreader verlässlich arbeiten. Spannend wird es bei Bestandsdokumenten: transformieren, prüfen, skalieren - bis in dreistellige Millionenmengen. Wir sprechen über Tools, Prüfstandards und warum Tests mit Betroffenen unverzichtbar sind. Mir wichtig: Es geht nicht nur um Compliance. Gute Struktur und Verständlichkeit erhöhen die Qualität für alle.
In dieser Episode spreche ich mit Ralf Somplatzki über ein Spiel für Softwaretester. Ralf und sein Team haben aus einer Idee ein Brettspiel gemacht, das echte Testfälle erzeugt. Stakeholder ran, Zettel, Eddings, Prototypen, Probespiele. Danach Feinschliff in der Community of Practice. Der Kern: Einkaufszettel Missionen, Einkaufskorb, Ereigniskarten und eine knifflige Checkout Phase mit Promotionen. Am Ende liegen rund 24 Testfälle für die Kassensoftware bereit, Sprint tauglich. Das Spiel ist frisch produziert, die Neugier groß.
In dieser Episode spreche ich mit Christian Brandes und Jonas Poller über Testen mit natürlicher Intelligenz. Wir starten mit zwei Fundstücken aus der Praxis: der Brutto-Netto-Flick-Flack, bei dem ein Preis durch wildes Umschalten um einen Cent steigt, und ein Crash, der nur durch Einfügen ganz links im Feld passiert. Daraus wachsen größere Fragen: Wie kreativ ist KI wirklich? Was ist Testing, was Checking und was nennen wir Digging, wenn Modelle nur in Daten wühlen?
In dieser Episode spreche ich mit Daniel Knott über das Jetzt im Softwaretesten: KI, Agenten und unseren Werkzeugkoffer. Wir erkunden produktive Use Cases wie Dokumentanalyse, Testdatengenerierung und Copiloten, sprechen über MCP und Agenten und fragen uns, wo echter Mehrwert entsteht. Gleichzeitig blicken wir auf Risiken: mehr generierter Code, fragliche Qualität, kommende Refactorings. Was heißt das für uns Tester? Tiefer Systemblick, Domänenwissen, klare Kommunikation im Team, Pyramide und Quadranten neu schärfen.
In dieser Episode bin ich Gast in meinem eigenen Podcast. Und Florian Fieber übernimmt dieses mal die Moderation. Warum? Nun, es gibt einen Anlass: Ich wurde dieses Jahr mit dem Deutschen Preis für Softwarequalität ausgezeichnet. In unserem Gespräch sprechen wir über den Hintergrund, den Podcast und über die menschliche Komponente in der Technologieentwicklung. Qualität ist für mich mehr als nur Testdaten und Skripte. Es geht darum, ein Umfeld zu schaffen, in dem Teams Qualität leben können. Wir werfen auch einen Blick auf die zukünftige Rolle der Menschen und der KI im Testing.
In dieser Episode spreche ich mit Isabelle Chariot über ihren spannenden Quereinstieg ins Software-Testing. Isabelle kommt ursprünglich aus der Online-Kommunikation und hat viele Jahre in einer Botschaft gearbeitet. Doch irgendwann entschloss sie sich, neue Wege zu gehen und fand ihren Platz im Software-Testing. Wir unterhalten uns darüber, wie sie zur Testerin wurde und welche Herausforderungen es auf diesem Weg gab.
In dieser Episode spreche ich mit Lars Luthmann über das Thema "Developer Friendliness". Dabei schauen wir, wie ein positives Arbeitsklima und die richtigen Werkzeuge, wie Testschnittstellen oder Testdatengeneratoren, den Arbeitsalltag angenehmer gestalten können. Lars bringt Beispiele aus einem Projekt in der Automobilbranche mit, in dem er durch kreative Lösungen wie REST-Schnittstellen und Mock-Services den Testprozess vereinfachte. Es wird deutlich, dass solche Maßnahmen nicht nur Zeit sparen, sondern auch die Stimmung im Team heben.
In dieser Episode spreche ich mit Richard Hönig über risikobasiertes Testen. Wir beleuchten verschiedene Perspektiven, um Risiken im Testen effektiver zu analysieren und unsere Abläufe zu optimieren. Richard erklärt sein Modell, das mehrere Dimensionen betrachtet, statt nur eindimensionale Risikoanalysen. Ein spannendes Thema, das nicht nur theoretische, sondern auch praktische Relevanz hat. Wir diskutieren, wie man Daten aus Projekten nutzt, um präzisere Risikobewertungen zu erzielen. Richards Ansatz ermöglicht eine tiefere, datenbasierte Sichtweise auf Risiken und bietet wertvolle Einblicke, wie man das Testen wirklich nutzen kann, um Risiken zu minimieren.
In dieser Episode spreche ich mit Alexander Weichselberger über die Veränderungen im Bereich externer Testdienstleistungen wie Remote Testing und Testfabriken. Wir reflektieren, wie agiles Arbeiten die Anforderungen verschärft hat. Kunden wünschen sich schnellere und flexiblere Lösungen, während Teams sich an neue Bedingungen anpassen müssen, besonders beim Einsatz externer Ressourcen. Weixi bringt seine langjährige Erfahrung ein und erzählt, warum Vertrauen und Transparenz entscheidend für den Erfolg in der Remote-Zusammenarbeit sind.
In dieser Episode spreche ich mit Curie Kure über Product Discovery. Wie können wir frühzeitig alle notwendigen Informationen zum Produkt sammeln und die Nutzerperspektive einnehmen?. Curie zeigt, wie wichtig es ist, Unsicherheiten zu klären, bevor die ersten Zeilen Code geschrieben werden. Wir sprechen über den Prozess der Product Discovery, der oft mit einem Workshop beginnt, um blinde Flecken aufzudecken. Curie erklärt, wie User Research dabei hilft, die richtige Richtung einzuschlagen.
In dieser Episode spreche ich mit Dirk Riehle über Open Source. Er erklärt, wie entscheidend es ist, Open Source Software sicher und korrekt in Produkte zu integrieren. Wir sprechen über die Herausforderungen, etwa Lizenzen und Sicherheitslücken. Dirk gibt Einblicke in die Bedeutung von kommerziellen Open-Source-Strategien. Denn manche Unternehmen gehen zu leichtfertig mit den Risiken um und unterschätzen den Aufwand hinter der Nutzung von Open Source.
In dieser Episode spreche ich mit Karin Vosseberg und Frank Simon über die Ergebnisse der Software-Testumfrage 2024. Wir besprechen die Erkenntnisse wie den Einsatz von KI im Testen und die Entwicklung in der Testautomatisierung. Trotz technischer Fortschritte automatisieren viele Tester grundlegende Verfahren wie Regressionstests nicht. Wir diskutieren auch über den Einfluss agiler Arbeitsmethoden und den Trend zu hybriden Modellen. Und wie sieht es mit Zertifizierungen aus? Sind die noch zeitgemäß?
In dieser Folge spreche ich mit Benjamin Hummel darüber, wie Künstliche Intelligenz helfen kann, Qualitätsprobleme in bestehender Software gezielt zu beheben. Im Detail geht es darum, wie KI beim Refactoring und bei der statischen Codeanalyse tatsächlich Mehrwert schafft. Benjamin bringt praktische Erfahrungen aus verschiedenen Projekten mit. Wir diskutieren typische Schwierigkeiten: zu viele Fehler-Reports durch statische Analyse, den Umgang damit und was passiert, wenn Unternehmen den Überblick verlieren.
In dieser Episode spreche ich mit Sabina Lammert über eines meiner Lieblingsthemen: Retrospektiven. Ich finde diese immer spannend, weil sie großer Hebel für Veränderungen sind - vorausgesetzt, sie werden richtig durchgeführt. Wir beleuchten, was eine gute Retrospektive ausmacht, warum ein sicherer Vertrauensraum so wichtig ist und wie der Weg vom bloßen Maßnahmen-Sammeln hin zur nachhaltigen Umsetzung gelingt. Spannend fand ich Sabinas Einblicke in die verschiedenen Phasen und das gezielte Design dieser Reflexionsrunden.
In dieser Episode spreche ich mit Thomas Müller über die Entwicklung des Swiss Testing Boards und seine Rolle in der Software-Test-Community. Wir gehen zurück zu den Anfängen des STBs in den frühen 2000er Jahren. Thomas erzählt von den Herausforderungen und den Pionierleistungen, die das Testen in der Schweiz geprägt haben. Darüber hinaus wagen wir auch einen Blick in die Zukunft und sprechen darüber, wie wichtig es ist, mit der Zeit zu gehen und gleichzeitig die eigenen Prinzipien zu bewahren.