techhub.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A hub primarily for passionate technologists, but everyone is welcome

Administered by:

Server stats:

5.2K
active users

#mpt

0 posts0 participants0 posts today

"Dans ce dossier se joue une histoire, finalement, assez commune. Celle d’une structure au fonctionnement « familial » où responsables et salariés s’arrangent entre eux. Quand ça se passe bien, tout roule dans le meilleur des mondes. Mais, lorsque les problèmes arrivent ou que la structure grandit, le cadre, flou, rend les situations impossibles à gérer."

Derrière l'affluence, le « malaise » des salariés de la maison des Rancy

rue89lyon.fr/2024/09/16/mots-m

#mpt #mjc #rancy @rue89lyon

1/2

Rue89Lyon · Derrière l'affluence, le « malaise » des salariés de la maison des RancyLa maison des Rancy est confrontée à de fortes tensions en internes. Enquête sur une des plus grosses MJC de France.

CECI EST UNE BOUTEILLE A LA MER
J'ai bien sûr refait le trajet plusieurs fois en vain. Le pire, c'est que je ne me souviens pas si j'avais le téléphone à la main ou si je l'avais remis dans la poche du blouson.
Il s'agit d'un FairPhone3 dans un étui avec porte carte bleu et qui fonctionnait très bien depuis décembre 2019, libéré en avril 2023. Avec lui carte de mutuelle, de piscine, recharge borne électrique

Le repouet rend le poil soyeux et l'haleine fraiche !

2/2
#lyon #mpt #fairphone3

CECI EST UNE BOUTEILLE A LA MER
Hier soir, j'ai perdu (ou on m'a volé) mon téléphone entre 20h02 et 20h08.
Il était 20h02 lorsque j'ai regardé l'heure sur le téléphone dans l'ascenseur de la MPT des Rancy en sortant de mon cours en me disant qu'il allait falloir me dépécher pour avoir mon train.
Il était 20h08 lorsque j'ai levé la tête sur le quai du métro Place Guichard et mis la main dans la poche de mon blouson pour ne rien y trouver.
1/2

Why is Meta partnering with #Microsoft?

"#LLaMa2 was trained on 40 percent more data when compared to #LLaMa1, which includes information from 'publicly available online data sources.' It also says it 'outperforms' other #LLMs like #Falcon and #MPT when it comes to reasoning, coding, proficiency, and knowledge tests." #GenerativeAI

#Meta is giving away its #AI tech to try to beat #ChatGPT - The Verge
theverge.com/2023/7/18/2379902

The Verge · Meta is giving away its AI tech to try to beat ChatGPTBy Emilia David
Continued thread

After some further experimenting and digging into what others had done, I was able to dramatically increase my token counts.

The input is the first half of Neuromancer Chapter 1 (ending just before Case meets Julias Dean): ~4700 tokens. Output was 1280 tokens, so I managed roughly 6k total tokens on a 16 GB GPU.

It produced some interesting alternate universe Chapter 2's. 🤯 #ML #AI #MPT #MPT7b #Storywriter

"The sky above the port was the color of television, tuned to a dead channel"

I fed the opening line and the opening few pages from #Neuromancer into MPT-7B-Storywriter, a recently released open source natural language model fine-tuned on a corpus of books.

It took me a few days to get it working locally. My 16 GB of RAM wasn't initially enough to load the model, and once it loaded the samples below hit my VRAM cap (16 GB).

Quite impressive. #ML #AI #MPT #Mosaic