Seiten

Donnerstag, 30. Oktober 2014

Hosting - Wenn IT zur Dienstleistung wird

Hosting bedeutet, Kunden IT-Dienstleistungen über ein Netzwerk zur Verfügung zu stellen. Dabei kann es sich um klassische Unternehmensanwendungen handeln, wie zum Beispiel Enterprise Resource Planning, Websites oder den E-Mail-Verkehr. So kann dies beispielsweise für einen Online-Händler durchaus attraktiv sein, wenn er seine E-Commerce-Angelegenheiten in vertrauensvolle Hände geben kann.


Der Hoster sorgt sich um einen reibungslosen Ablauf der Anwendung. Beinhaltet sind hierbei auch die Bereitstellung und das Management von Servern, Speichern und Netzwerken. Ressourcen können physisch oder virtuell sein und entweder exklusiv für nur einen Kunden vorgehalten oder von mehreren gemeinsam genutzt werden.

Private Cloud - aber sicher!


Beim Hosting werden mehrere Spielarten unterschieden


Auf der einen Seite stehen Public-Cloud-Angebote. Diese stellen die selben Anwendungen vielen verschiedenen Kunden über das Internet zur Verfügung. Sie werden in der IT-Welt Software as a Service (SaaS) genannt. Auf der anderen Seite steht Platform as a Service (PaaS). Hier nutzt eine Vielzahl an Kunden dieselbe Entwicklungsumgebung. Teilen sich mehrere Unternehmen dieselben IT-Ressourcen (Rechner, Server, Speicher), spricht man von Infrastructure as a Service (IaaS). Diese Vielfalt und Spezifikation macht schnell bewusst, dass Hosting für den einzelnen Nutzer von IT-Dienstleistungen günstiger ist, als selbst die gesamte Infrastruktur an Hard- und Software selbst bereitzuhalten.

Mit dem Konzept der Private Cloud…

…stellen Hostinganbieter ihren Kunden eine dedizierte IT-Umgebung bereit. Dabei sollen Managed-Service-Angebote vorher vereinbarte Service Levels in Bezug auf Verfügbarkeit und Performance der IT garantieren. Viele Entscheider in den Unternehmen ziehen Cloud-Infrastrukturen, Data Center Outsourcing oder Hosting, bei Überlegungen bezüglich des Betreibens ihrer IT in Erwägung. Bei der Entscheidung Zuständigkeiten bezüglich Applikationen auszulagern, fällt die Wahl zumeist auf SaaS. Dabei ist Outsourcing beim Bezug von IT-Leistungen durch Service-Provider das größte Segment. Beim Business Process Outsourcing werden gleich ganze Geschäftsprozesse ausgelagert, wie zum Beispiel die Spesenabrechnung.

yourIT - Wir helfen Ihnen auf Ihrem Weg zum passenden Hosting-Angebot

Bei deutschen Anbietern von Hosting…

… erwarten Experten besonders starkes Wachstum, da die Kunden in zunehmendem Maße Rechenzentren im eigenen Land bevorzugen. Ursache hierfür sind u. a. die strengen Datenschutzrichtlinien hierzulande sowie die Aktivitäten des US-Spionagedienstes NSA. Experten betrachten den Kauf von Server-Hardware und Software-Lizenzen sowie einen eigenen Betrieb zwar als eine Alternative für Großunternehmen. Für Kleinunternehmen hingegen ist die Nutzung von Cloud-Anwendungen konkurrenzlos einfach und günstig. Bei Cloud Computing spielt die Sicherheit der Daten eine wichtige Rolle. Deshalb können Service Provider, die ein Rechenzentrum in Deutschland betreiben, derzeit von Standortvorteilen profitieren. Kann der Cloud-Diensteanbieter eine §-11-Zertifizierung für die Auftragsdatenverarbeitung vorweisen, steht einem Auftrag fast nichts mehr im Weg.

Fazit


Insgesamt findet IT als Dienstleistung immer mehr Zuspruch. Gerade für kleine und mittlere Unternehmen rechnet es sich, die Pflege komplexer Anwendungen und das Vorhalten der dafür erforderlichen Server, Speicher und Netzwerke an einen Hoster zu delegieren. Prüfen auch Sie, ob es sich nicht lohnt, in Zukunft IT als extern zugekaufte Dienstleistung zu nutzen. Wir von yourIT unterstützen Sie gerne dabei.

Ich freue mich auf Ihre Projektanfragen.

Ihr Ralf Ströbele
Ralf Ströbele

Dienstag, 28. Oktober 2014

8 Gründe, warum man die IT-Abteilung auslagern sollte

Viele Unternehmen sind genau deshalb erfolgreich, weil sie die Durchlaufzeiten erheblich beschleunigt haben und sehr flexibel auf die Kundenanforderungen eingehen können. Die IT- Abteilung übernimmt dabei eine Schlüsselrolle beim Aufbau, der Wartung und dem Update des Netzes. Allerdings hat diese enorme Leistungskraft auch ihren Preis: Zur Gewährleistung eines reibungslosen Betriebs sind jede Menge Manpower und finanzielle Investitionen vonnöten. Sollte man nicht da an Auslagerung der wichtigsten Funktionen der IT-Abteilung denken? Acht wesentliche Gründe sprechen dafür, die Make-or-Buy-Entscheidung zu überdenken:


IT-Abteilung auslagern - Kümmern Sie sich um Ihre Kern-Kompetenzen

1. Nutzung der Größendegression bzw. der Mengenrabatte

Viele Funktionen in der Datenverarbeitung sind mit einem markantem Einsatz an Technik verbunden, womit auch große Investitionsvolumen bewegt werden. Eine Auslagerung an Spezialisten sorgt dafür, dass diese Technik mit Mengenrabatten eingekauft werden kann.

2. Workflow-Struktur statt Schubladen-Wissen:

Wer die Daten für die Auslagerung vorbereitet, kann damit eine Erneuerung des Workflows verbinden. Einer der großen Vorteile insbesondere bei Fehl- oder Urlaubszeiten ist dann das Vorhandensein von Strukturen und Prozessen. Es kommt also nicht mehr auf die Anwesenheit des einzigen Mitarbeiters an, der sich vielleicht mit Datensicherung und -wiederherstellung auskennt.

3. Gesetzliche Bestimmungen und den Technologiewandel beherrschen:

In den letzten Jahren gab es ziemlich viele Veränderungen bei den gesetzlichen Aufbewahrungsfristen und der steuerlichen Anmeldung. Der Gesetzgeber dachte an die neuerdings notwendige Aufbewahrung von Geschäftsunterlagen für 2 bis zehn Jahre, die auch nach einem Technologiewechsel lesbar sein müssen. Wenn Sie die IT-Abteilung an einen Spezialisten auslagern, verfügt dieser über revisionssichere Soft- und Hardware, die auch auf die Lesbarkeit historischer Daten ausgelegt worden ist.

4. Hochtechnologie zum Bestpreis nutzen

Viele Unternehmen würden gerne den nächsten Technologiesprung wagen und den Kunden einen noch besseren Service anbieten. Allerdings sind die Budgets der IT-Abteilung oftmals nicht so hoch, dass die nächste Technik-Generation leicht zu finanzieren wäre. Nach Auslagerung sieht die Situation wesentlich besser aus: Viele Firmen teilen sich eine Hochtechnologie-Infrastruktur und somit dessen Anschaffungskosten. Zwischen den einzelnen Daten gibt es eine strikte Trennung, so dass den Kostenvorteilen keine Nachteile gegenüberstehen.

5. Backups sichern die Technik mehrfach ab

Viele Unternehmen haben schon aus Sicherheitsgründen die IT-Abteilung zentralisiert, um den Datenschutz gewährleisten zu können. Allerdings gibt es manchmal leider keine wirklich strukturierte Vorgehensweise, was Backups angeht. Diese werden nur unregelmäßig gezogen, immer wenn in der IT-Abteilung gerade Zeit dafür ist. Nach der Auslagerung gibt es auch dafür strukturierte Abläufe und Zeitpläne. So gehen im schlimmsten Fall wesentlich weniger oder fast gar keine Daten mehr verloren.



6. Wetter-Risiken und externe Ereignisse beherrschen

Ein weiteres Problem für das Risikomanagement der IT-Abteilung ist die Nicht-Beherrschbarkeit von externen Ereignissen. Egal ob im Flutgebiet, in der Nähe eines chemischen Betriebes oder direkt an einer vielbefahrenen Landstraße gelegen: Immer kann es zu Bränden oder Überflutungen kommen, gegen die ein professionelles Rechenzentrum viel besser geschützt ist.

7. Nachfrageschwankungen abfedern

Eine weitere, für eine IT-Abteilung nur schwer lösbare Aufgabe sind Nachfrageschwankungen. Denken Sie an Sonderaktionen zum Saisonstart oder erheblichen Datenverkehr während einer ndustriemesse. Bei Auslagerung gleichen sich die unterschiedlichen Nachfrageverläufe der outsourcenden Unternehmen aus. Die Auslagerung führt dazu, dass die Kapazität für Spitzenzeiten geteilt werden kann. Dadurch werden Enttäuschungen auf Kundenseite und gleichzeitig ein zu hoher Anstieg der Kosten auf Anbieterseite vermieden.

8. Mehr Freiheit für das Kerngeschäft

Ein weiterer Punkt, den Mittelständler und Großunternehmen zu schätzen wissen, ist das Freiwerden unternehmerischer Kapazitäten. Das Management bekommt mehr Zeit für die eigentlichen unternehmerischen Aufgaben und kann sich zu 100 % auf den IT-Profi verlassen.

Kontaktieren Sie uns!

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele


Bildnachweis:
- http://snapwiresnaps.tumblr.com/post/126515959223/xeromatic-httpxeromaticcom-free-under

Montag, 27. Oktober 2014

Virtualisierung statt Server - ein Wechsel hilft Energie zu sparen

In vielen Unternehmen, seien es kleine, mittelständische oder große Betriebe, hat sich über die Jahre in ganzer Park an Servern angesammelt, auf denen firmeninterne oder externe Anwendungen betrieben werden. Oft sind für einzelne Anwendungen dedizierte physische Maschinen vorhanden, die obwohl sie nicht rund um die Uhr benötigt werden oder nur teilweise ausgelastet sind, 24 Stunden am Tag und sieben Tage die Woche vor sich hin arbeiten. Dies kann in Zeiten ständig steigender Energiekosten aufgrund des hohen Stromverbrauchs zu einer belastenden Kostenposition im Unternehmen werden. Die Servervirtualisierung verspricht in solchen Situationen Abhilfe und bringt neben der Senkung von Energiekosten viele weitere Vorteile mit, die für eine flexiblere, effizientere und zugleich leistungsfähigere IT im Unternehmen sorgen können.

 

Vom physischen zum virtuellen Server

Durch eine Virtualisierung ist es möglich, unterschiedliche Server auf nur einer einzigen physischen Maschine zu betreiben. Selbst wenn einzelne Anwendungen spezifische Betriebssysteme erfordern, ist dies durch die Virtualisierung problemlos auf einer Hardware umsetzbar. Dies führt zu einer deutlichen Einsparung von Energiekosten, denn die gemeinsame Hardware kann viel gleichmäßiger ausgelastet werden. In Summe ist der Energieverbrauch des physischen Servers in einer virtualisierten Umgebung weitaus geringer, als der einzelner Server mit jeweils eigener Infrastruktur. Denn bestimmte Komponenten wie Kühlung, Arbeitsspeicher, CPU und Festplatten müssen jeweils nur einmal mit Energie versorgt werden und lassen sich dadurch trotz höherer Performance effizienter betreiben.

Weitere Vorteile der Virtualisierung

Neben geringerem Stromverbrauch bringt die Virtualisierung aber noch eine ganze Reihe an weiteren Vorteilen mit sich. So wird die IT wesentlich flexibler, denn Server können quasi online und in Echtzeit den spezifischen Anforderungen angepasst werden. Auch das Management der Hardware reduziert sich auf wenige Maschinen und vereinfacht sich enorm im Vergleich zu einer heterogenen Serverlandschaft. Zudem führt die Einsparung an physischen Maschinen zu geringeren Wartungskosten und Wartungsaufwänden. Nicht zuletzt schafft die Virtualisierung auch eine optimale Ausgangsposition, um die IT in die Cloud zu verlagern. Denn der Übergang von virtualisierten Strukturen in eine cloudbasierte IT ist sehr sanft und flexibel möglich. Durch die Einsparung von eigener Software dank Cloudtechnik kann der Stromverbrauch für die Server im eigenen Unternehmen gar auf nahezu Null reduziert werden.

Einsatz frei werdender Mittel

Gerade wenn in Unternehmen der Stromverbrauch der IT einen beträchtlichen Kostenblock darstellt, ist es an der Zeit für die Verantwortlichen, über eine Virtualisierung nachzudenken. Weniger Server im Rechenzentrum senken den Stromverbrauch spürbar und lassen die durch die Einsparung frei werdenden Mittel wesentlich besser einsetzen. Zudem liefert die Virtualisierung einen echten Beitrag zur Klimabilanz und zu einer nachhaltigen Energiepolitik des Unternehmens. Möchten auch Sie den Stromverbrauch durch Einsparung an Hardware in Ihrem Unternehmen senken, lassen Sie sich von den Vorteilen der Virtualisierung überzeugen.

Kontaktieren Sie uns!


Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Donnerstag, 23. Oktober 2014

Frust am Arbeitsplatz - Wie veraltete Technik Arbeitsprozesse blockiert

Effiziente und qualitativ wertvolle Arbeitsvorgänge sind in der heutigen Zeit eine Grundvoraussetzung für wirtschaftliche und professionelle Resultate im Beruf und lassen eine hohe Konkurrenzfähigkeit zu. Wenn der Mitarbeiter alle Arbeitsabläufe stets unter Kontrolle hat, hat dieser nicht nur zu jeder Zeit eine komplette Übersicht über den Status Quo seines Arbeitslebens, sondern auch mehr Freiraum für weitere Leistungen und zusätzliche Verbesserungen. Die momentane Arbeitswelt ist jedoch von Störfaktoren durchzogen, welche nicht nur zur Ineffizienz führen, sondern den Arbeitsalltag oft ganz chaotisch gestalten. Ein ausschlaggebender Störfaktor ist unter anderem eine veraltete IT-Ausstattung, die der Effizienz der Arbeitsabläufe erheblich im Weg steht. Vielerorts müssen sich Mitarbeiter mit veralteten Computern auseinander setzen, welche in einem irritierend langsamen Tempo laufen und auf maßgebliche Weise einen reibungslosen Ablauf im Betrieb stören.

 Die Bedeutung des Büroarbeitsplatzes und der IT-Ausstattung im Berufsleben

Mit dem modernen Arbeitsleben sind auch andere Anforderungen an den Büroarbeitsplatz und die IT-Ausstattung eingezogen. Mittlerweile verbringen viele Mitarbeiter einen großen Teil der Arbeitszeit außerhalb des eigenen Büros und ihrem angestammtem Arbeitsplatz. Ein hoher Prozentsatz muss im Außendienst arbeiten, fast genauso viele sind regelmäßig im Home Office tätig. Darüber hinaus sind berufliche Einsätze bei den Kunden und anderen Niederlassungen erforderlich. Dadurch verliert der klassische Büroarbeitsplatz immer stärker an Bedeutung und kann die hohen Anforderungen an Flexibilität und Leistungsfähigkeit nicht mehr erfüllen. Des Weiteren sind viele Arbeitsplätze auch heutzutage noch mit einer antiquierten IT-Ausstattung ausgerüstet, die keine Möglichkeiten für produktives und mobiles Arbeiten zulässt. Auf diese Weise ist der Arbeitsaufwand für Routineaufgaben relativ hoch und behindert einen innovativen Entwicklungsprozess der Mitarbeiter. Dadurch ist der Frust am Arbeitsplatz in vielen Bereichen ein tagtäglicher Begleiter und verringert die beruflichen Erfolgschancen für den jeweiligen Mitarbeiter und seinen Betrieb. Um als Betrieb in der aktuellen Arbeitswelt konkurrenzfähig zu sein, sind zeitgemäße Modernisierungen unumgänglich. Dazu gehören nicht nur eine fest installierte IT-Ausstattung, sondern auch mobile IT-Lösungen, mit denen jede Arbeitskraft von überall aus, einen Netzwerkzugriff hat. Der Bedarf an modernen Werkzeugen und der Leistungsdruck im Berufsleben sind so hoch, dass viele Mitarbeiter indessen auf eigene Rechnung in eine Verbesserung der individuellen IT-Ausstattung investieren.

Moderne IT-Ausstattung für eine hohe Produktivität und Leistungsfähigkeit

Eine fortschrittliche IT-Ausstattung eliminiert Störungen im Arbeitsleben und erhöht die Konkurrenzfähigkeit Ihres Unternehmens. Investieren Sie wohlüberlegt in professionelle IT-Lösungen, mit denen Ihre Mitarbeiter an jedem Ort und zu jeder Zeit uneingeschränkt handlungsfähig und ganzheitlich informiert sind. Auf diese Weise können Sie das Erreichen optimaler Ergebnisse fördern und den eigenen Unternehmenserfolg dauerhaft sichern.

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Mittwoch, 22. Oktober 2014

Unwissenheit - Hauptbedrohung der Datensicherheit

Die Serie an Meldungen im Netz über dreisten Datenklau und erbeutete E-Mail-Accounts im großen Stil scheint nicht abzureissen. Zwar ist die Empörung über Hacker und deren hohes Maß an krimineller Energie hoch, doch vergessen leider viele, dass die wirklichen Bedrohungen oft ganz woanders liegen. Denn gerade die Unwissenheit der User stellt oft das größte Risiko für persönliche oder firmeninterne Daten dar. Internetstudien decken zum Teil erschreckende Wahrheiten über Firmen und deren Umgang mit sensiblen Daten auf.

 

Studie bringt Klarheit

Die unlängst von Informatica und Ponemon veröffentlichte Studie "The State of Data Centric Security" zeigt, dass viele Firmen überhaupt keine Vorstellung davon haben, wo sich ihre Daten befinden. Die Befragung von weltweit 1.500 IT-Verantwortlichen und Security-Profis zeigt, dass nur wenige Firmen überhaupt wissen, wo ihre Firmendaten gespeichert sind. Lediglich sieben Prozent können gar Auskunft geben, über den Verbleib von Daten, wie E-Mails oder Dokumenten. Der Rest der Firmen tappt diesbezüglich komplett im Dunkeln. Obwohl mit 57 Prozent, die Mehrheit der Befragten angibt, dass sie über die eigene Unkenntnis ihrer Datensituation besorgt sind, setzen nur 22 Prozent so genannte automatisierte Data-Discovery-Tools, die über den Verbleib sensibler Daten Auskunft geben, ein. Diese Zahlen sind besorgniserregend, denn wie sollen Firmen ihre Daten schützen, wenn sie nicht wissen, wo sie sich befinden.

Transparenz bezüglich des Speicherorts von Daten ist notwendig

Traditionelle Sicherheitsvorkehrungen wie Zugangsschutz, Anwenderkontrolle und Klassifizierung von Daten können in einem solchen Umfeld gänzlich versagen. Da dies zu wirklich ernsthaften Sicherheitsproblemen führen kann, ist es für betroffene Unternehmen an der Zeit, sich über ein wirksames Sicherheitskonzept Gedanken zu machen. Eine wichtige Komponente eines solchen Konzeptes muss sein, für eine zentrale Speicherung von Daten im Unternehmen und Transparenz bezüglich des Speicherorts zu sorgen. Sollten Firmen ihre Unwissenheit weiter ignorieren, ist davon auszugehen, dass sie zukünftig weiter steigenden Gefahren ausgesetzt sein werden. Neben dem Verlust der Glaubwürdigkeit eines Unternehmens im Fall eines Datendiebstahls kann es im schlimmsten Fall sogar zu einer existenziellen Bedrohung der Firma und ihres Fortbestands kommen. Sich ohne Kenntnis über den Speicherort sensibler Daten gegen kriminelle Machenschaften aus dem Netz wirksam zu schützen, ist ein gefährliches Unterfangen.

Kontaktieren Sie uns

Sollten auch Sie sich angesprochen fühlen, zögern Sie nicht jetzt zu handeln. Wir analysieren Ihre Situation und zeigen Ihne mögliche Lösungen. Mit dem richtigen Knowhow, können Sie oft schon in erstaunlich kurzer Zeit für eine beruhigende Datensicherheit sorgen.

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Dienstag, 21. Oktober 2014

10 Schritte zur Sicherheit - Das hilft Ihrem Unternehmen

Kein Unternehmen kommt heute mehr ohne Computer, Internet und Firmenwebseite aus, wenn es den Anschluss nicht verpassen möchte. Gleichzeitig rüsten auch die Datendiebe auf und interessieren sich nicht nur für die Großen der Branchen, sondern auch für den kleinen Mittelständler von nebenan. Aus diesem Grund ist es besonders wichtig, dass Ihr Unternehmen sicher ist. Besonders in kleineren und mittleren Unternehmen wird die Gefahr von Cyberattacken leicht unterschätzt. Dabei sind diese von besonders häufig betroffen, weil ihr Schutz oft geringer ist. Früher reichte es meistens, ein Antivirenprogramm einfach zu installieren, wohingegen heutzutage die Kriminellen im Internet immer raffinierter und geschickter vorgehen. 

Welche Bedrohungen gibt es?

Schäden durch Insider

Eine große Schwachstelle, durch die Schäden entstehen können, sind USB-Speicher. Häufig verwenden Angestellte USB-Sticks ohne Prüfung auf Firmenhardware. Inzwischen gibt es Geräte, die sich als Speicher tarnen und sich hervorragend Firmenspionage betreiben oder eine Schadsoftware starten lässt.

Lösung: Sämtliche USB-Anschlüsse lassen sich im Netzwerk sperren und können nur durch den Administrator einzeln freigegeben werden. Damit Mitarbeiter diese Sperren nicht umgehen können, bleibt dem Unternehmen eigentlich nur, Krypto-USB-Sticks für die Mitarbeiter zu finanzieren und nur diese im Firmennetz zu erlauben.

Schäden durch das Internet

Industriespione und Hacker sammeln systematisch Daten. Werden diese per Internet übertragen, lassen sie sich relativ einfach auslesen. Lagern die Daten irgendwo auf Speichern, können diese das Ziel von Hackerangriffen werden. Ob beim Online-Banking, Phishing oder Spam: Nicht immer sind die Angriffe leicht als solche zu enttarnen. Trotzdem gehen viele Firmen recht sorglos mit Passwörtern um, wählen nur einfache aus und verwenden diese mehrfach. Datendiebe recherchieren diese gezielt in sozialen Netzwerken und probieren den Namen des Nutzers mit Passwort auf allen Systemen aus. Ebenso sind ungesicherte Firmennetzwerke ein Einfallstor für Kriminelle. Ein kabelvernetztes Netzwerk ist sicherer, als ein Funknetzwerk. Dazu Portsperren für die LAN-Anschlüsse und eine gute Firewall.
Lösung: Ein sicheres Passwort hat mindestens 12 Zeichen, die möglichst scheinbar sinnlos aufeinander folgen und mindestens einen Großbuchstaben, ein Sonderzeichen und eine Zahl enthalten. Mit einem Satz, der sich geschickt abkürzen lässt, bleibt ein solches Passwort besser im Gedächtnis.

Spionage durch die Konkurrenz

Ob Kundendaten oder Geschäftsinterna: Die Konkurrenz kann damit das Meiste anfangen. Besonders leicht lassen sich die Daten stehlen, wenn sie auf mobilen Geräten leicht zugänglich sind.

Lösung: Hier ist auf der sicheren Seite, wer den Teil der Festplatte verschlüsselt, auf dem die sensiblen Daten liegen. Dafür gibt es vorinstallierte Programme für Unternehmen. Macht eine zusätzliche Software die Informationen gezielt unleserlich, sind diese noch sicherer.

In 10 Schritte zum sicheren Unternehmen:

  1. Schwachstellen regelmäßig scannen und Patches automatisch erneuern
  2. Richtlinien definieren – für mobile Mitarbeiter und den Umgang mit sozialen Medien
  3. Benutzung mehrstufiger Sicherheitslösungen (z. B. Zwei-Faktor-Authentifizierung)
  4. Sichern Sie auch die Daten, die sich außerhalb des Unternehmens befinden
  5. Halten Sie Ihre IT auf aktuellen Stand: Ältere Systeme sind gegen Angriffe schlechter Gewappnet
  6. Überwachen Sie Sicherheitsmeldungen
  7. Gespeicherte Datenmengen reduzieren – gemäß den in Ihrer Branche üblichen Richtlinien
  8. Stellen Sie sicher, dass auch Drittanbieter die nötige Sicherheit bieten
  9. Arbeiten Sie nur mit Partnern zusammen, denen Sie vertrauen
  10. Ändern Sie regelmäßig Ihre Kennwörter nach den oben genannten Merkmalen
Wenn Sie nicht nur im Verdachtsfall fragen, sondern bereits vorher Ihre Hard- und Software von uns checken lassen, können Sie unbesorgt online unterwegs sein.Wir sorgen für die nötige Sicherheit.


Kontaktieren Sie uns!

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Montag, 20. Oktober 2014

Software-Piraterie im Rückzug - Deutsche nutzen seltener illegale Software

In Schwellenländern und dem asiatischen Raum ist Software-Piraterie nach wie vor gesellschaftlich weit anerkannt. Zumindest hierzulande aber sind die goldenen Zeiten der unlizenzierten Programme vorbei. Immer mehr Privatanwender und Geschäftsleute erkennen den Nutzen einer bezahlten Lizenz. 

 

Nur noch jedes vierte Programm unlizenziert

Große Freude herrschte kürzlich bei der internationalen Business Software Alliance: Die Auswertung einer Studie hatte ergeben, dass im Jahr 2013 nur noch 24 Prozent der Software in Deutschland ohne Lizenz läuft. Das bedeutet weniger Umsatzverluste für Apple, Oracle und Co., aber auch Servicevorteile für die Endnutzer. Die Piraterie-Quote ist gegenüber 2012 erneut gesunken. Der Anteil deutscher Softwarenutzer am globalen Umsatzverlust von 62,7 Milliarden Dollar im letzten Jahr sank also. Zugleich hatten die hiesigen Anwälte weniger Verdienstpotential durch die Nutzung von Software ohne Lizenz. Einer der Gründe für die gestiegene Sensibilität hierzulande gegenüber dem Security-Risiko unlizenzierte Software dürfte die erhöhte Verbreitung von Datenschutzthemen in den Medien sein. Viele Geschäftskunden wissen mittlerweile um das Risiko für Hackerangriffe und Datenverluste, beispielsweise weil Updates und Patches ohne Softwarelizenz nicht rechtzeitig anwendbar sind. Weitere Faktoren für die gestiegene Nutzung von Originalsoftware sind die verstärkte Fahndung nach Softwarepiraten und ihren Kunden sowie die beliebter werdende Auslieferung von Unternehmenssoftware als Apps oder mittels der Cloud.

Verantwortungsbewusst: Auf aktuelle Lizenz achten

Nicht jede unlizenzierte Software kommt aufgrund von krimineller Energie zum Einsatz. Häufig fehlen gerade in kleineren und mittelständischen Unternehmen einfach die nötige Manpower und Kompetenz für sicheres Lizenzmanagement. In jedem Fall kann ein effizientes Software-Asset-Management (SAM) Ihrem Unternehmen zu Lizenzsicherheit und einer Komplettsicht auf die Installationen im Netzwerk bieten. Lassen Sie sich bei der Auswahl eines verständlichen und revisionssicheren Lizenz- und Software-Asset-Managements beraten.

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Freitag, 17. Oktober 2014

Sicherheitslücke Mensch - Schwachstellen gibt es nicht nur in der Technik

Der IT-Service ist in jedem Unternehmen ein beliebter Ansprechpartner. Doch so häufig die Mitarbeiter mit den EDV-Fachkenntnissen gerufen werden, so selten liegt ein echter Software- oder Hardwaredefekt vor. Die Hauptursache aller Störungen sind Bedienfehler, Versäumnisse und andere menschliche Fehler. Das muss jedoch nicht so bleiben. 

 

Handgemachte Serviceausfälle oft vorhersehbar

Die Vielfalt der Programme und Möglichkeiten ist für viele Mitarbeiter nicht leicht zu verstehen. Gerade das Zusammenspiel von Geräten und Software im Firmennetzwerk führt immer wieder dazu, dass MitarbeiterInnen im falschen Moment Eingaben machen oder ungünstige Prozesse in Gang setzen. Regelmäßige Fortbildungen wirken gegen die Problematik an. Neben der initialen Ausbildung der MitarbeiterInnen und Arbeitnehmer darf also die Option "Schulungen bei neuer Software oder neueren Versionen" nicht vergessen werden.

Lebenszyklus elektronischer Geräte verstehen

Nicht nur bei reinen PC-Arbeitsplätzen, auch in ausführenden Gewerken gilt: Je höher das Verständnis für die Maschinen und Programme, desto niedriger die Fehlerquote. Um ein Netzwerk aus elektronischen Geräten in einem Betrieb möglichst lange verfügbar zu halten, sollten die Mitarbeiter über die Phasen der Lebenszyklen aufgeklärt sein und somit die Ersatzteilplanung effizient laufen. Sind die Mitarbeiter über die Auswirkungen von Geräteausfällen in Kenntnis gesetzt, so können sie sensibler mit den entsprechenden Maschinen und Rechengeräten umgehen.

Kostenintensive, menschengemachte Fehler vermeiden

Bei Aus- und Fortbildungen entstehen gewisse Kosten für den Dozenten, Materialien sowie Reisekosten. Welche Mitarbeiter wann in den Genuss welcher Schulung gelangen, sollte wohlüberlegt werden. Bei der Auswertung der vielfältigen Angebote im Bereich der Erwachsenenbildung zu IT-Themen, lassen Sie sich am besten von Insidern beraten. Informieren Sie sich bei uns über Fortbildungen und vermeiden Sie somit künftig Anwendungsfehler, durch mangelhaft geschulte Mitarbeiter!

Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Donnerstag, 16. Oktober 2014

Stromfresser schlechthin - Die Kommunikation intelligenter Geräte

Netzwerkfähige Geräte erobern den Alltag und versprechen mehr Komfort und die Vereinfachung von Prozessen. Dafür verbrauchen diese Produkte jedoch auch immer mehr Strom. Ein Großteil davon aber lässt sich mit den entsprechenden Mitteln einsparen. 

 

Die Zahl Netzwerkfähiger Geräte wächst

Mehr und mehr halten Geräte Einzug in unseren Alltag, die per Netzwerk miteinander verbunden sind. Kühlschränke, Smart-TVs und sogar Thermostate verfügen inzwischen über eine Internetverbindung. Zahlreiche Arbeitsabläufe lassen sich damit automatisieren und erheblich effizienter gestalten. Über 14 Milliarden solcher Endgeräte sind bereits in Betrieb und die Tendenz ist klar steigend. Der Boom netzwerkfähiger Geräte steht noch am Anfang und Schätzungen zufolge sollen es im Jahr 2020 bereits 50 Milliarden und in den folgenden Dekaden noch einmal 10 Mal so viele sein - mit einem entsprechenden Verbrauch.

Geräte werden zu Stromfressern

Trotz aller Vorteile wachsen die Probleme, angesichts des immensen Energiehungers, den die Devices mit sich bringen. Die meiste Zeit befinden sich die Geräte in einem Standby-Betrieb. Die eigentliche Funktion würde in der Regel nur eine kurze Betriebsdauer und damit einen geringen Verbrauch von Strom erforderlich machen. Da jedoch permanent auf eingehende Signale gewartet werden muss, verpufft unnötig viel Strom für nichts. Nach Angaben der Internationalen Energieagentur (IAE) beläuft sich der Verbrauch, der zur Aufrechterhaltung der Verbindung benötigt wird, auf 80 % des Gesamtbedarfs. Sage und schreibe 616 Terawattstunden Strom benötigten netzwerkfähige Endgeräte im Jahr 2013, ca. 400 Twh davon allein durch den Standby-Betrieb. Das ist so viel, wie 133 durchschnittliche Kohlekraftwerke mit 500 MW leisten, während sie 1,4 Millionen Tonnen Kohle verheizen. Bis zum Jahr 2025 soll sich dieser Verbrauch noch einmal verdoppeln. Das Ergebnis ist nicht nur eine extrem schlechte Ökobilanz, sondern macht sich selbstverständlich auch finanziell bei der nächsten Stromrechnung bemerkbar. Hier Maßnahmen zum Energiesparen zu ergreifen bedeutet also Umweltschutz und Kostensenkung zugleich.

Eine Stromeinsparung ist möglich

Satte 60 % Strom ließe sich einsparen, das geht aus der Analyse durch die IAE hervor. Zwar ist der Energiehunger der einzelnen Produkte eher gering. Die Masse an Geräten ist hier das große Problem. Würde bereits bei der Herstellung darauf geachtet, dass nur intelligente, hoch moderne Technologie implementiert würde, könnte die Verschwendung laut IAE deutlich minimiert werden. Hierzu müsste mehr Arbeit in die Entwicklung der Hard- und Software gesteckt werden und bessere technische Standards umgesetzt werden, was nur mit geringen Kosten verbunden wäre.

Worauf Sie achten sollten

Als Kunde sollten Sie beim Kauf von netzwerkfähigen Geräten also immer darauf achten, dass Sie hier nicht am falschen Ende sparen. Verantwortungsbewusste Hersteller statten ihre Produkte mit einem effizienten Energiesparmodus aus, in dem der Verbrauch - jedenfalls laut Forderung der IAE - gerade einmal 1 Watt beträgt. Das schont die Umwelt, unsere natürlichen Ressourcen und nicht zuletzt Ihren Geldbeutel. Wie Sie Ihre Geräte intelligent vernetzen und gleichzeitig darauf achten, nicht unnötig viel Strom zu verbrauchen, erfahren Sie bei uns.
Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Mittwoch, 15. Oktober 2014

Virtualisierungsmärkte wachsen - Mobile Arbeitsmodelle sind die Ursache

Cloud-Computing und Virtualisierung sind längst nicht mehr nur Trends, sondern die Motoren des IT-Markts. Moderne, virtualisierte und cloudbasierte IT-Infrastrukturen verhelfen Unternehmen zu effizienten, schlanken Prozessen und enormen Kosteneinsparungen. Wer den Trend verschläft, läuft Gefahr, den Anschluss zu verlieren. Denn nur wer heute flexibel und schnell auf die Anforderungen von Kunden und Markt reagieren kann, hat die Chance erfolgreich zu wirtschaften. Cloud Computing und Virtualisierung schaffen hierfür ideale Voraussetzungen.

 

Nun auch im KMU-Segment

Waren es zu Beginn hauptsächlich große Unternehmen, die zuerst das Potenzial der Virtualisierung und des Cloud Cumputings entdeckten, hat diese Technik mittlerweile längst alle Bereiche unserer Wirtschaft erfasst. Auch das KMU-Segment (kleine und mittlere Unternehmen) setzt inzwischen vermehrt auf diese State of the Art Technologie und profitiert von ihren Vorteilen. Dies gibt eindrucksvoll eine Studie der Bitkom wieder, in der bereits 2013 40 Prozent der befragten Unternehmen Cloud Computing einsetzten und weitere 29 Prozent ihren Einsatz planten. Laut einer Studie des IDC Marktforschungsinstitut waren Ende 2013 33 Prozent aller Server im EMEA-Gebiet (Europa, Mittlerer Osten und Afrika) virtualisiert. Die Installationsraten von dedizierten, physischen Server gehen nach wie vor kontinuierlich zurück und virtualisierte Server haben zweistellige Zuwachsraten.

Keine Angst vor Ausspähung

Selbst die NSA-Affäre und die Angst vor dem Ausspähen durch unbefugte Dritte konnten diesen Trend nicht stoppen. Darüber hinaus fördern neue, flexible und mobile Arbeitsmodelle den Markt für Virtualisierung und Cloud Computing. Moderne Geschäftsprozesse gehen davon aus, dass Mitarbeiter überall Zugriff auf ihre Arbeitsumgebung und Firmendokumente haben. Das mobile Internet, Smartphones und Tablets schaffen hierfür auf Userseite die Voraussetzungen. Zentralseitig ist "Workspace as a Service" das Schlagwort für dieses Arbeitsmodell. Mitarbeitern wird dadurch auf ihrem Endgerät unabhängig vom Betriebssystem und vom Gerät selbst der Desktop virtualisiert zur Verfügung gestellt. Dies bringt für Mitarbeiter und Unternehmen gleich eine ganze Reihe an Vorteilen.

Vorteile überwiegen

So lassen sich Kosten durch zentrales Management sparen und Mitarbeiter können sogar mit ihren privaten Geräten arbeiten (BYOD - bring your own device). Darüber hinaus verbessert sich durch die zentrale Datenhaltung die Sicherheit und Compliance und die Produktivität des Unternehmens steigt. Nicht zuletzt entlastet die Virtualisierung den Desktop PC und verlängert dessen Lebenszyklus.

Was muss beachtet werden?

Um mit der Einführung der Virtualisierung und des Cloud Computings von Beginn an erfolgreich zu sein, gilt es mit kompetenten Partner zusammen zu arbeiten. Eine detaillierte Planung und ein exaktes Anforderungsprofil sind die Grundvoraussetzung für die unproblematische Einführung. Möchten auch Sie von den Vorteilen der Virtualisierung und des Cloud Computings in Ihrem Unternehmen profitieren, sprechen Sie mit uns. Gerne werden wir Sie zu den Möglichkeiten und der Realisierung umfassend beraten.
Ich freue mich auf Ihre Projektanfragen.
Ihr Ralf Ströbele
Ralf Ströbele

Freitag, 3. Oktober 2014

Windows 7 - Vom Massengeschäft zum aussterbenden Produkt

Es ist noch gar nicht lange her, da war Windows 7 sowohl für den Entwickler Microsoft wie auch für seine Kunden ein echter Hoffnungsträger: Als das Betriebssystem im Oktober 2009 auf den Markt kam, werkelte auf den meisten Rechnern noch das schon damals recht betagte Windows XP. Tatsächlich war Windows 7 im Gegensatz zum ungeliebten Vorgänger Windows Vista ein großer Erfolg. Geht es nach Microsoft, steht demnächst trotzdem wieder ein Abschied an.


Windows 7 tritt den Abschied an


Als der Support von Windows XP im April 2014 endete, war diese Meldung ein Fall für die Abendnachrichten, denn auf zu vielen Geräten war das Betriebssystem noch immer installiert. Umso erstaunlicher ist der schnelle Abschied von Windows 7: Bereits am 13. Januar 2015 soll der sogenannte "Mainstream Support" eingestellt werden. Anders als beim Supportende von Windows XP ist ein sofortiger Umstieg dann aber nicht unbedingt notwendig, wenn auch ratsam. Mit dem Ende dieses Supports werden nur keine Neuerungen mehr für das System entwickelt. In der Praxis zeigt sich, dass dann auch der Treiber-Support der Hardware-Hersteller langsam ausläuft. Wird also neue Hardware angeschafft, könnte die Inbetriebnahme zunehmend problematisch ausfallen.

Weitaus wichtiger für den Regelbetrieb sind aber Aktualisierungen bezüglich entdeckter Sicherheitslücken. Hier ist auch weiterhin mit der Unterstützung des Software-Giganten zu rechnen: Dafür bietet Microsoft den "Extended Support" an, der noch weitere fünf Jahre bestehen soll. Das langsame Sterben betrifft dennoch sehr viele Kunden; derzeit ist Windows 7 auf rund 51 Prozent aller Rechner in Deutschland installiert. Damit die Nutzer auch weiterhin in technischer Hinsicht Schritt halten können und von den Weiterentwicklungen profitieren, die als Service Packs regelmäßig von Microsoft angeboten werden, sollte ein Umstieg auf eine neuere Variante erfolgen. Beim derzeit aktuellen Windows 8.1 wurde die noch bei Windows 8 viel kritisierte Bedienung stärker an das bekannte Schema angepasst. Geduldige User könnten gar noch auf den nächsten Herbst warten: Dann soll mit Windows 9 ein gänzlich neues Betriebssystem erscheinen.

Windows Server 2003: Ab 2015 keine Sicherheitsupdates mehr


Weniger Zeit bleibt hingegen Unternehmen, die noch Windows Server 2003 einsetzen. Hier reicht eben jener Extended Support noch bis zum 15. Juli kommenden Jahres - ab dann wird die Verwendung mit immer größeren Sicherheitsrisiken verbunden sein. Anders als bei den meisten Privatkunden dürfte es bei der Einführung einer neuen Windows-Server-Generation kaum mit dem Aufspielen eines neuen Betriebssystems getan sein: Der Umstieg bedeutet in diesem Fall auch einen Wechsel von 32 auf ein 64 Bit-System und sollte samt entsprechender Tests frühzeitig geplant werden. Wenn Sie also Windows Server 2003 noch nutzen, sollten Sie in jedem Fall zeitnah aktiv werden.

Bei Fragen und zu möglichen Alternativen beraten wir Sie gerne!


Ich freue mich auf Ihre Projektanfragen.

Ihr Ralf Ströbele

Ralf Ströbele

Donnerstag, 2. Oktober 2014

Einblicke in die Praxis - Die Verbindung aus CRM und Big Data

Erfolgreiche CRM-Anwendungen sind nicht erst seit heute die Grundlage für jeden Markterfolg. Die moderne Voraussetzung für gutes CRM bilden die Informationen über die Kunden, die man bisher vor allem durch traditionelle Datenbankanwendungen für das Marketing genutzt hat. Die Zukunft des CRM liegt jedoch in innovativen und noch effizienteren Anwendungen, die sich auf die Big Data-Technologie stützen.


Analyse strukturierter Daten


Einer der größten Nachteile der bisher verwendeten CRM-Technologien und -Anwendungen besteht darin, dass nur der Teil der Kundeninformationen Eingang in den auswertbaren Datenbestand findet, der im Sinne der herkömmlichen Datenbanktechnik gut zu strukturieren ist. Die anderen, weniger strukturierten Daten sind dann zwar oft noch vorhanden, stehen jedoch für Analysen nicht mehr zur Verfügung. In der Folge beschränkt man so die Anzahl der Analyseoptionen und -varianten. Im schlimmsten Fall werden Analyseergebnisse sogar verfälscht, weil die Analyseergebnisse unverwertbare Daten, die einen einschränkenden oder verstärkenden Einfluss auf die Dateninterpretation gehabt hätten, nicht berücksichtigt werden.

Big Data nimmt an Wichtigkeit zu


Mit den neuen Big Data Anwendungen löst man sich von den schematischen und nur Teile der Kundenbeziehung erfassenden CRM-Analyse und bildet das reale CRM ab, wie es früher in jedem Tante Emma Laden üblich war. Hier hatte die Ladeninhaberin nicht nur alle formalen Kundendaten gespeichert, sondern kannte auch Kundeninformationen aus Klatsch- und Tratschgeschichten, die sie verkäuferisch gut verwerten konnte. Im Laufe der modernen CRM Entwicklung, hat man zwar versucht, diese herkömmlichen Prozesse durch immer bessere Systeme zu erfassen, zu analysieren und zu beurteilen.

Eine wirklichkeitsnähere Abbildung der Handhabung von Kundenbeziehung im traditionellen Präsenzhandel erfordert jedoch den Einsatz der Big Data Technologie. Ein gutes Beispiel dafür wäre der Anruf einer Kundin in einem Call Center. Mit Hilfe eines auf Big Data basierenden CRM-Systems sieht der Call Center Agent sofort alle zum Kunden vorliegenden Daten einschließlich der Informationen über aktuelle persönliche Umstände des Kunden. So erhält der Agent sofort die entscheidenden Kundeninformationen, die Rückschlüsse auf den aktuellen Bedarf des Kunden und dann eine entsprechend gezielte Führung des Verkaufsgesprächs ermöglichen.

Investieren Sie in Ihre Zukunft


Es ist keine Frage, dass Sie sich in Zukunft nur noch mit einem Marketing werden durchsetzen können, das sich auf die innovativsten Methoden zur Anbahnung und Pflege der Kundenbeziehungen stützt. Der immer härtere Wettbewerb wird sich jedoch von einem Wettlauf um die beste traditionelle Datenbankanwendung zum Management der Kundenbeziehungen auf die Verfügbarkeit der besten Big Data Anwendung verlagern. Sie sind deshalb gut beraten, die Entwicklung der neuen CRM-Möglichkeiten mit Big Data genau zu verfolgen und am besten gemeinsam mit Ihren ITK-Beratern so früh wie möglich nach dem besten Einstieg in Big Data Anwendungen zu suchen.

Sprechen Sie uns darauf an, wir beraten Sie gerne!


Ich freue mich auf Ihre Projektanfragen.

Ihr Ralf Ströbele

Ralf Ströbele

Mittwoch, 1. Oktober 2014

Software Defined Networking (SDN) - Potenzial für Unternehmer und Systemhäuser

Kennen Sie schon Software Defined Networking und wissen Sie, was diese Architektur für Sie leisten kann? Welche Rolle spielen Systemhäuser bei dieser zukunftsträchtigen Entwicklung, die als Hype gehandelt wird?


Was kann SDN?


Software Defined Networking ermöglicht eine einfachere Verwaltung Ihres Netzwerkes, da die Hardware nicht mehr manuell konfiguriert werden muss. Das Netzwerk wird virtualisiert, womit der Netzwerkverkehr zentral gesteuert werden kann, ohne manuellen Zugriff auf die einzelnen physischen Komponenten. Anwendungslandschaften werden dadurch mobil - dieses Thema hat durch Cloud Computing stark an Bedeutung gewonnen. Auch die Erneuerung von Hardware wird wesentlich erleichtert, da die Control Plane in einem externen Controller zentralisiert wird. So werden die Ressourcen von Rechenzentren effektiver genutzt, der Einsatz von Cloud Services erleichtert und Netzwerkservices und Netzwerktopologien selbst kontrolliert.

Welche Aufgabe haben Systemhäuser bei dieser Entwicklung?


Systemhäuser sind IT- oder Telekommunikationsunternehmen, die Softwarelösungen anbieten. Meist arbeiten sie herstellerübergreifend, oder haben sich im Hardwarebereich auf ein oder zwei Hersteller spezialisiert. Hier bekommt der Kunde, meist kleine und mittelständische Unternehmen, eine umfassende Beratung von A-Z. Systemhäuser entwickeln meist selbst Software, oder arbeiten eng mit Entwicklern zusammen. Gewünschte Lösungen können schnell und effektiv umgesetzt werden. Das Systemhaus ist der Ansprechpartner für den Kunden und übernimmt die Organisation und eventuelle Gespräche mit Subunternehmern. Die Systemhäuser sind auch diejenigen, die das Thema Software Defined Networking an den Kunden bringen müssen. Denn diese Architektur ist bei weitem noch nicht allen CEOs mittelständischer Unternehmen bekannt. Die Systemhäuser, die den hybriden Ansatz vermitteln, nämlich die Ergänzung der klassischen Netzwerkprotokolle mit SDN-Funktionalitäten, werden mittelfristig die Nase vorn haben. Denn sie bieten ihren Kunden die momentan optimale Synergie aus Zukunftsperspektive und Investitionssicherheit.

Wo liegen die Schwächen von Software Defined Networking?


Die Zahl der Hersteller, die sich mit SDN beschäftigen, ist noch recht überschaubar. Unklar ist also, ob der Hype auch halten wird, was er verspricht. Systemhäuser müssen den Markt nach verfügbaren Produkten absuchen, die richtigen Komponenten für ihre Kunden finden und sie in die bestehenden Strukturen einfügen. Dabei reicht es auf Dauer nicht, ursprünglichen Netzwerkkomponenten durch SDN-fähige Hardware auszutauschen, auch wenn dies durchaus die Performance verbessert. Entscheidend ist der Blick auf das große Ganze, eine einheitliche Architektur aus Hardware und Software. Der Transport der Entwicklung zum Kunden ist die Herausforderung der Zukunft für Systemhäuser.

Zahlreiche Vorteile überwiegen


Netzwerke werden nicht nur einfacher und flexibler, noch dazu wird - im Gegensatz zu manueller Konfiguration - die Fehlerquote gesenkt. Einzelne Produkte stehen zudem nicht mehr lediglich für einen speziellen Service bereit, vielmehr können diese mehrfach benutzt werden. Auch die Arbeitseffizienz spielt bei der Entscheidung auf SDN umzusteigen eine große Rolle. Ressourcen von IT-Arbeitskräften werden gespart, da weniger Zeit in Anspruch genommen wird für Administration und Problembehandlung.

Was sollten Sie tun, um diese Entwicklung und Ihren Nutzen nicht zu verpassen?


Sprechen Sie uns konkret auf SDN an. Fragen Sie nach Schulungen und behalten Sie die Entwicklung im Auge!

Ich freue mich auf Ihre Projektanfragen.

Ihr Ralf Ströbele

Ralf Ströbele