techhub.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A hub primarily for passionate technologists, but everyone is welcome

Administered by:

Server stats:

4.7K
active users

#dublincore

0 posts0 participants0 posts today

#Handschriftenportal erhält erste Schnittstelle: Der Zugriff auf unseren umfangreichen Datenbestand ist nun per #OAIPMH möglich. Datensets sind als #TEI und #DublinCore verfügbar.

🔜 Weitere Schnittstellen folgen. Um die Bedarfe der Community besser einschätzen zu können, freuen wir uns über Ihr Feedback: Welche Schnittstellen sind für Ihre Arbeit und Forschung besonders relevant?

Alle Informationen ➡️ blog.sbb.berlin/hsp-oai-schnit

@histodons @medievodons

Some thoughts on my preliminary investigation of #Omeka ( omeka.org/classic/docs/Install ).

Built on pretty standard #LAMP stack.
No official docker image that I could find, so of course I built my own.
Which reminded me why I HATE php.

Anyway.

Some light testing (running locally).
Pretty simple to use (good).
No fancy ideas about creating "presentation" versions of items, and keeping the original upload "pristine". I am of two minds on this - for now, not a problem for me, but I can see how large archives might be problematic.

For example, a MOV file needs to be presented as a MP4 for widest audience. And you probably don't want to lose the original.
With Omeka that means some manual work on the admin side.

It support plugins and themes - I'm of two minds here also. Good way
to extend functionality and allow for customization, but my experience with such things are not good ito longterm stabililty and maintenance.

I'm also not super keen on #MySQL as the db, due to recent corruptions issues with my #Nextcloud instance (moved that to #PostgreSQL ).
BUT, this will be read heavy, so maybe not an issue - hard-ish to corrupt a db by reading from it.

The useage of #DublinCore at least means (I think) in theory, if I really want, I should be able to migrate to another Dublin Core compatible system if needed. So...good.

My verdict - I'm going to play with it some more.
Install some plugins etc, see what happens.
I'm also building up a test set of assets, in case I want to eval something else.

omeka.orgInstallation - Omeka Classic User Manual
Continued thread

In einem gemeinsamen Workshop der Konsortien @NFDI4Memory , @nfdi4objects und @Textplus auf der #DHd2025 wurde anhand konkreter Use Cases eine Einführung in #DublinCore, #TEI und #LIDO vermittelt, die Bedeutung von #Normdaten und #Terminologien betont und die #Minimaldatensatz-Empfehlung für #Museen und #Sammungen vorgestellt. Die Folien finden sich bei Zenodo: zenodo.org/records/15052040

#FAIR #CARE #NFDI #Text+ #NFDI4Memory #NFDI4Objects #Datenharmonisierung #Datenqualitaet 2/2

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMaterialien zum Workshop "Qualitativ hochwertige Metadaten in digitalen Editionen“, der im Rahmen der „DHd 2025: Under Construction“ in Bielefeld von Mitarbeiter:innen der NFDI-Konsortien Text+, NFDI4Memory, NFDI4Objects, der Verbundzentrale des GBV und dem Institut für Museumsforschung gehalten wurde. Ziel des Workshops war die praxisnahe Vermittlung von Wissen zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen. Ausgehend von konkreten Fallbeispielen in Form verschiedener Überlieferungssituationen von Briefen (neu zu erschließen, Abschrift, indirekter Hinweis) wurden die Problemfelder aufgerissen, die hinsichtlich der Beschreibung der verschiedenen Arten von Metadaten auftreten können. Drei Übungsblöcken waren jeweils kurze thematischen Einführungen zu den Basisthemen Metadaten, Normdaten und kontrollierten Vokabularen, Dublin Core, LIDO sowie Datenqualität und Datenkuratierung vorangestellt. In den Praxisübungen arbeiteten die Teilnehmer:innen in Gruppen oder eigenständig mit den Metadaten-Standards Dublin Core, LIDO und TEI-XML. Die Übungen zielten darauf ab, die Erstellung von Metadatensets, auch anhand von Metadateneditoren, zu erproben und aus der eigenen Erfahrung Methoden zur Bewertung der Qualität und zur Bereinigung eigener bzw. bereits vorhandener Metadatensets zu entwickeln.
Continued thread

@Textplus @NFDI4Memory

Da dieser Workshop aufgrund des wichtigen Themas sehr schnell ausgebucht war, finden Sie hier das Abstract: zenodo.org/records/14943264.

#DHd2025 #Metadaten #Normdaten #Terminologien #Vokabulare #digitaleEditionen #Datenqualität #Minimaldatensatz #TEI #LIDO #DublinCore #Personennamen #Ortsnamen #Standardisierung

Wir freuen uns auf den Austausch, sowohl auf der DHd als auch danach.

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMetadaten sind der zentrale Schlüssel, um Datenpublikationen verfügbar, indexierbar und verknüpfbar zu machen. Sie geben Aufschluss über die Provenienz, Erfassung und Bearbeitung von Daten und ermöglichen den Communities, die Daten nachnutzen möchten, eine Kontextualisierung ihrer Entstehungsbedingungen. Reich an potentiellen Metadatenquellen stellen Editionen – digitale wie analoge – durch Register, Apparate, Personen- und Ortsnamen sowie die Dokumentation von Textbearbeitungsstufen die Erfassung mittels standardisierter Formate vor besondere Herausforderungen. Der Workshop fokussiert die Erzeugung standardbasierter Metadatensets von und für die Erarbeitung von Editionen unter dem Gesichtspunkt von Metadatenqualität. Im Workshop werden daher praxisnah Kenntnisse zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen vermittelt. Zu den Kernelementen zählen Praxisübungen in Kleingruppen anhand konkreter Use Cases (Dublin Core, LIDO) und für die Herstellung digitaler Editionen relevanter Metadaten-Standards. Den Hands-On-Phasen vorangestellt sind konzise Einführungen zu den Feldern und Standards von Metadatenformaten, kontrollierten Vokabularen, Aspekten der Datenqualität und Phasen der Datenkuratierung.

Petite bouteille à la mer. Je commence à utiliser un web clipper pour sauvegarder des articles en markdown. Du coup j'essaie aussi d'automatiser l'ajout de métadonnées au début du fichier.

Sauf que je tombe sur le manque de standard en HTML sur le sujet. Les balises meta incluent author, description, et c'est à peu près tout.

Y a-t-il eu des discussions sur le sujet ? Des gens qui ont cherché à se mettre d'accord sur le standard à utiliser ?

Retoot apprécié !

Today I will be wearing my metadata hat to present the Dublin Core Scholarly Resources Application Profile (DC-SRAP) at the Minute Madness session & Poster reception. How to extend and standardize DC metadata to fit the needs of academic repositories? How to describe articles, preprints, theses etc. with rich metadata?

Documentation: github.com/dcmi/dc-srap

A0 poster: github.com/dcmi/dc-srap/blob/m

Continued thread

I am of course also thinking about the #Web (#Q466) in general. We are in a time of crisis with the decline of the quality of #Google as a search engine.

In the early years of the web there was a belief in #MetaData but it was cumbersome. Today, adding #DublinCore data to a webpage should be as easy as adding a keyword to a #blog post. But it isn't done.

We got away with haphazard metadata and #tagging while Google still worked but those days are over.

We need to think systematically.

Twitter Cards

Anfang der Woche hat Martin Weigert schon über Twitters Pläne, die eigenen Tweets mit noch mehr Medieninhalten zu erweitern, geschrieben: Immer mehr Partnerseiten können zusätzliche multimediale Inhalte im Kontext von Tweets darstellen. Ganz eindeutig ist bisher nicht, wohin diese Reise für Twitter geht. Aber ich habe mir nichts weiter dabei gedacht… Immerhin macht das Twitter […]

notiz.blog/2012/06/22/twitter-