Social Software Adoption und die Integration externer Daten in Social Software sind Herausforderungen, der sich immer mehr Unternehmen stellen müssen. Mit dem hs.Crawler haben wir eine Lösung für viele dieser Herausforderungen geschaffen, die jetzt in der Version 1.6 freigegeben wurde. Kurz zur Erinnerung: Was ist der hs.Crawler?

Logo_hsCrawlerDer hs.Crawler erlaubt die Definition verschiedener Datenquellen (Domino Datenbanken, Jira, Redmine, Datei-Systsem, Feeds …) und das Ermitteln von Daten aus den Datenquellen über die Erstellung einfacher bis komplexer Regeln. Eine Regel könnte lauten: Lese den Antragsteller, den Antragszeitraum und den Antragsgrund aus einem Urlaubsantrag im Status „zur Genehmigung“. Dann können wiederum Regeln auf die ermittelten Daten angewendet werden, um die Daten automatisiert nach IBM Connections zu posten. Eine solche Regel könnte sein: Erstelle einen Eintrag im Activity Stream der Personalwesen Community mit den ausgelesenen Antragsdaten und einem Link auf die Datenquelle. So kann der Urlaubsantrag direkt aus Connections heraus geöffnet und im Workflow weitergeleitet werden.

Der hs.Crawler erlaubt das Schreiben von Activity Stream Entries, Wikis, Forums, Blogs, Files, Activites und ToDos und übernimmt RT Formatierungen und bei Bedarf Attachments. Die Nutzung ist sowohl in OnPrem Instanzen von IBM Connections als auch in eine Connections Cloud Instanz möglich!

In der Version 1.6 haben wir die Anwendung um sinnvolle Funktionen erweitert. Das Highlight dabei ist sicherlich die eigene hs.Crawler Rest API, die es ermöglicht, mit simplen Aufrufen externe Quellen anzubinden, die wir „out-of-the-box“ nicht „anzapfen“ können.

An dieser Stelle möchten wir kurz unsere Strategische Allianz mit der panagenda erwähnen auf die wir sehr Stolz sind! Das panagenda mit Produkten, wie iDNA, ApplicationInsights oder ConnectionsExpert tolle Produkte im Portfolio hat ist bekannt. hedersoft steuert mit dem hs.Crawler ein weiteres Puzzlestück zum Gesamtportfolio bei, um Kunden im ESN Umfeld beidseitig vollumfänglich betreuen zu können. 

Die nachfolgenden Highlights der neuen Version sollen das verdeutlichen:

Verarbeitung von „Nested Foldern“

Ab der Version 5.5 von IBM Connections können Dateien in Unterordner abgelegt werden. Diese Ablagemöglichkeit wird vom hs.Crawler unterstützt. Die Ablage kann per Regelkonfiguration kontextbezogen erfolgen.

Konfiguration:

In IBM Connections:

Ablage von „Inline Images“

Ebenfalls ab der Version 5.5 hat sich die Ablage von „Inline Images“ geändert. Da der hs.Crawler die Möglichkeit bietet, komplette Rich-Text-Informationen inkl. aller Layoutinformationen nach Connections zu überführen (z. B. als Blog-Eintrag), ist auch die Überführung von „Inline Images“ Pflicht! Ich bin mir aktuell nicht ganz sicher, aber ich glaube IBM Verse unterstützt dieses Feature bei einer Blog-Erstellung aktuell nicht ;-)…

Übernahme von Dateien aus File-System mit Information des letzten Bearbeiters

Dateien auf einem Netzlaufwerk (inkl. der kompletten Ordnerhierarchie) werden im Namen des Erstellers bzw. letzten Bearbeiters in IBM Connections abgelegt. Neben Netzlaufwerken können so auch komplette IBM Quickr oder Domino.Doc Instanzen automatisiert nach IBM Connections (OnPrem oder Cloud) überführt werden.

Verarbeitung von Connections Activities im hs.Crawler User-Cockpit

Das „Hauptfeature“ vom hs.Crawler ist sicherlich das Posten von Informationen nach IBM Connections. Ein Punkt, der uns jedoch immer am Herzen liegt. ist das hs.Crawler User-Cockpit, welches „out-of-the-box“ und ohne Mehrkosten jedem Kunden zur Verfügung steht. Aber der Version 1.6 können jetzt nicht nur Aufgaben externe Quellen im User-Cockpit sondern auch Activities und To-Do-Item aus IBM Connections visualisiert dargestellt und verarbeitet werden.

hs.Crawler Rest API

Last but not least sicherlich das Highlight der neuen Version! Mit Hilfe der hs.Crawler Rest API können innerhalb des Verarbeitungsprozesses einer Anwendung direkt Informationen nach IBM Connections gepostet werden. Besonders sinnvoll ist dieses Möglichkeit, wenn die Quelle ein System ist, welches gar nicht oder nur sehr eingeschränkt von außen angebunden werden kann.

Nachfolgend 2 Beispiele:

Es soll eine Information des aktuellen Users in den User-Stream eines definierten anderen Users gepostet werden.
Folgende Objekt-Informationen sind dafür notwendig:

  • Wer ist der aktuelle User?
  • In welchen User-Stream wollen wir posten?
  • Was wollen wir posten?

Mehr benötigen wir nicht. Die zu übergebenden Informationen sind über die hs.Crawler Rest API sehr einfach zu definieren:

Auch für die hs.Crawler Rest API haben wir die Logik „Quellenregel/Zielregel“ beibehalten, so dass für dieses Beispiel die Konfiguration der Zielregel, also wo und wie soll nach IBM Connections gepostet werden, wie folgt aussieht:

Über die Zuordnung des Feldbezeichners im Objekt „otherfields“ und der Konfiguration in der Verteilungsregel (=Zielregel), posted der hs.Crawler die Information in den korrekten User-Stream:

Das 2. Beispiel setzt auf dem ersten Beispiel auf. Jetzt wollen wir aber Informationen per Embedded Experience anzeigen und direkt aus den Embedded Experience verarbeiten lassen:

Folgende Objekt-Informationen sind dafür notwendig:

  • Wer ist der aktuelle User?
  • In welchen User-Stream wollen wir posten?
  • Was wollen wir posten?
    • Was für Informationen sollen in den Embedded Experience angezeigt werden?
    • Welche Aktionen sollen ausführbar sein?

Als Beispiel dient das Szenario, dass eine neue Home-Office Zeit in einer Web-basierenden „TimeTracking“-Datenbank beantragt und durch den Vorgesetzten zu prüfen und zu genehmigen ist:

Per „Apply“ wird der Request gestellt und in der Datenbank gespeichert. Darüber hinaus wird jetzt ein Rest-Aufruf an den hs.Crawler gesendet:

Wie im Beispiel 1 wird jetzt über „otherfields“ festgelegt, in welchen User-Stream gepostet werden soll.

Wichtig ist jetzt das Objekt „embexp“. Hier wird über „header“, „fields“ und „actions“ definiert, wie der Inhalt der Embedded Experience aussehen soll und welche Aktionen auszuführen sind.

Damit der hs.Crawler diese Informationen jetzt korrekt verarbeiten kann, müssen in der zugrundeliegenden Quellenregel die Embedded Experience aktiviert werden:

Nach der Übergabe an IBM Connections ergibt sich somit folgendes Bild:

Ein wichtiger „Seiteneffekt“: Die Nutzung der Embedded Experience ist ebenfalls in der mobilen App von IBM Connections nutzbar!

Haben wir Ihr Interesse geweckt? Melden Sie sich bei uns!